Нарушение 2-го закона термодинамики.

Сообщение №16340 от unabashed 09 января 2003 г. 13:25
Тема: Нарушение 2-го закона термодинамики.

Экспериментальная проверка нарушения 2-го закона термодинамики для малых систем.

http://phys.web.ru/db/msg.html?mid=1184517/


Отклики на это сообщение:

Прискорбно, что даже люди с серьезным физическим образованием, профессионалы, не всегда понимают о чем говорят, когда речь заходит об энтропии и о втором начале термодинамики.

Отсюда и забавные фразы типа: "для неравновесной замкнутой системы наиболее вероятным в каждый последующий момент времени будет состояние с бОльшей энтропией".

Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.


> Прискорбно, что даже люди с серьезным физическим образованием, профессионалы, не всегда понимают о чем говорят, когда речь заходит об энтропии и о втором начале термодинамики.

> Отсюда и забавные фразы типа: "для неравновесной замкнутой системы наиболее вероятным в каждый последующий момент времени будет состояние с бОльшей энтропией".

Нормальная фраза, по-моему.

> Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.

Имеем в начальном состоянии неравновесную систему. Нас интересует зависимость энтропии системы от времени. Энтропия - логарифм числа микросостояний, реализующих данное макросостояние. Казалось бы, вполне разумно говорить о вероятности того, что через малое время "дельта t" энтропия системы увеличится (уменьшится).



> > Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.

> Имеем в начальном состоянии неравновесную систему. Нас интересует зависимость энтропии системы от времени. Энтропия - логарифм числа микросостояний, реализующих данное макросостояние. Казалось бы, вполне разумно говорить о вероятности того, что через малое время "дельта t" энтропия системы увеличится (уменьшится).

Вы, как, вполне осознанно высказали эти утверждения? :-)
Посмотрите, какие интересные выводы из них следуют: Раз "энтропия - логарифм числа микросостояний" и можно говорить о "вероятности того, что со временем энтропия системы увеличится" => можно говорить о вероятности того, что со временем число микросостояний увеличится. Вот это да!

Я понимаю, что Вы говорите о микросостояниях, "реализующих данное макросостояние", но сторого, говоря, макросостояние "реализуется" всеми возможными микросостояниями.

О чем вполне разумно говорить, так это о том, что через некоторое время t энтропия системы увеличится. Кстати, она есть не логарифм числа микросостояний (что верно только для равновесного состояния), а некая функция от распределения вероятностей по микросостояниям системы, а именно:

E = -∑ip(i)log{p(i)}

(здесь i - номер микросостояния, по ним проводится суммирование)

Как видите, если распределение равномерное (p(i) = 1/N, где N - число микросостояний), что характеризует как раз равновесное макросостояние, получим тот самый log{N}, о котором Вы пишете.


> > > Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.

> > Имеем в начальном состоянии неравновесную систему. Нас интересует зависимость энтропии системы от времени. Энтропия - логарифм числа микросостояний, реализующих данное макросостояние. Казалось бы, вполне разумно говорить о вероятности того, что через малое время "дельта t" энтропия системы увеличится (уменьшится).

> Вы, как, вполне осознанно высказали эти утверждения? :-)
....
> Посмотрите, какие интересные выводы из них следуют: Раз "энтропия - логарифм числа микросостояний" и можно говорить о "вероятности того, что со временем энтропия системы увеличится" => можно говорить о вероятности того, что со временем число микросостояний увеличится. Вот это да!

> Я понимаю, что Вы говорите о микросостояниях, "реализующих данное макросостояние", но сторого, говоря, макросостояние "реализуется" всеми возможными микросостояниями.

Коли понимаете, то зачем выбрасываете половину фразы и после этого критикуете?

> сторого, говоря, макросостояние "реализуется" всеми возможными микросостояниями

То есть макросостояние, когда в левой половине сосуда давление Р, а в правой 0 реализуется микросостояниями с молекулами, равномерно распределенными по объему сосуда? И микросостояниями, когда все молекулы в правой половине? Из вашего утверждения следует именно это...

> О чем вполне разумно говорить, так это о том, что через некоторое время t энтропия системы увеличится. Кстати, она есть не логарифм числа микросостояний (что верно только для равновесного состояния), а некая функция от распределения вероятностей по микросостояниям системы, а именно:


> E = -∑ip(i)log{p(i)}

> (здесь i - номер микросостояния, по ним проводится суммирование)

Давайте еще раз на конкретном примере. Сосуд содержит 1000 молекул. В начальный момент времени в левой половине 490, в правой 510. Энтропия не максимальна (хотя отличается от максимальной незначительно). Какой будет энтропия системы через секунду? Она с какой-то вероятностью может уменьшится (если в левой половине окажется меньше, чем 490 молекул) и (с несколько большей вероятностью) увеличится (если число молекул станет больше, чем 490). И вероятности эти отличаются не более, чем в несколько раз (среднеквадратичное отклонение примерно 11). Именно об этом шла речь в обруганном вами исходном сообщении. Да так и во всех учебниках написано. Врут что ли учебники?


> Коли понимаете, то зачем выбрасываете половину фразы и после этого критикуете?

Потому и критикую, что Ваши представления об энтропии кажутся мне неверными. Извините что сократил Вашу фразу, но в полном виде она мне представляется не менее странной.

> > сторого, говоря, макросостояние "реализуется" всеми возможными микросостояниями

> То есть макросостояние, когда в левой половине сосуда давление Р, а в правой 0 реализуется микросостояниями с молекулами, равномерно распределенными по объему сосуда? И микросостояниями, когда все молекулы в правой половине? Из вашего утверждения следует именно это...

Вообще-то давление - характеристика МАКРОсостояния. И микросостояний с "распределенными" молекулами не бывает. Так что мое утверждение так понимать не следует.

Микросостояние - это всего лишь точное описание одного из состояний, в которых может находиться система. В терминах описания "где находятся молекулы газа" микросостояние - это точные координаты всех молекул. Запишите их в виде вектора бо-ольшой размерности. Множество всех возможных микросостояний - это область в пространстве таких векторов. Естественно, в рассматриваемом случае эта область определяется сосудом (хотя речь идет не об области трехмерного пространства!).

МАКРОсостояние - это распределение вероятностей на множестве возможных микросостояний. В этом смысле я и говорю, что оно "реализуется" всеми возможными микросостояниями. Конечно, некоторые вероятности могут быть нулевыми (например, если известно, что в правой половине сосуда молекул нет, соответствующим векторам, определяющим микросостояния, следует приписать нулевые вероятности). Но это не означает, что этих микросостояний не существует.

> > E = -∑ip(i)log{p(i)}

> Давайте еще раз на конкретном примере. Сосуд содержит 1000 молекул. В начальный момент времени в левой половине 490, в правой 510. Энтропия не максимальна (хотя отличается от максимальной незначительно).

Рассчитайте для примера чему конкретно будет равна энтропия в данном случае (можете использовать приведенную формулу, если получится). Сдается мне, что Вы как-то неправильно понимаете энтропию.

> Какой будет энтропия системы через секунду? Она с какой-то вероятностью может уменьшится (если в левой половине окажется меньше, чем 490 молекул) и (с несколько большей вероятностью) увеличится (если число молекул станет больше, чем 490). И вероятности эти отличаются не более, чем в несколько раз (среднеквадратичное отклонение примерно 11). Именно об этом шла речь в обруганном вами исходном сообщении. Да так и во всех учебниках написано. Врут что ли учебники?

В хороших учебниках не так написано. Давайте их внимательно перечитаем. Приведенную выше формулу, определяющую величину энтропии через вероятности микросостояний, встречали? Согласны с ней? Каким тогда образом Вы ее можете применить для расчета конкретной величины энтропии? Из Вашего описания я этого пока не вижу, хотя Вы явно предполагаете, что энтропию как-то можно рассчитать.


> МАКРОсостояние - это распределение вероятностей на множестве возможных микросостояний. В этом смысле я и говорю, что оно "реализуется" всеми возможными микросостояниями. Конечно, некоторые вероятности могут быть нулевыми (например, если известно, что в правой половине сосуда молекул нет, соответствующим векторам, определяющим микросостояния, следует приписать нулевые вероятности). Но это не означает, что этих микросостояний не существует.


Извините что вмешиваюсь но я бы попробовал разрешить ваш спор с такой аналогией. Имеем качелю стоющую на ветру(газ в сосуде)-её среднее положение равно нулю. Приходит некто и говорит - качения качели,энергию ветра(тепло) можно
использовать если поставить устройство преобразующее колебательное движение во вращательное(тепловой генератор).
Доказать что силу ветра можно использовать для добывания энергии.
Док-во: ветрянная мельница работает не нарушая з-нов сохранения.

С уважением Д.

> > Давайте еще раз на конкретном примере. Сосуд содержит 1000 молекул. В начальный момент времени в левой половине 490, в правой 510. Энтропия не максимальна (хотя отличается от максимальной незначительно).


Авторы заметки несколько погорячились, анонсировав статью как "Первое прямое наблюдение нарушения второго закона термодинамики...". Аналогичные по смыслу опыты ставили еще Энштейн со Смолуховским лет 70 назад.



"Начнем же все снова..."

> > Сосуд содержит 1000 молекул. В начальный момент времени в левой половине 490, в правой 510. Энтропия не максимальна (хотя отличается от максимальной незначительно).
> > Какой будет энтропия системы через секунду? Она с какой-то вероятностью может уменьшится (если в левой половине окажется меньше, чем 490 молекул) и (с несколько большей вероятностью) увеличится (если число молекул станет больше, чем 490). И вероятности эти отличаются не более, чем в несколько раз (среднеквадратичное отклонение примерно 11). Именно об этом шла речь в обруганном вами исходном сообщении.

Верны ли ("да","нет") утверждения:
1. Энтропия через секунду может как увеличиться, так и уменьшиться.
2. Можно говорить о вероятности увеличения (уменьшения) энтропии через секунду.



> "Начнем же все снова..."

Насколько я понял, Вы не хотите для Вашего конкретного примера сделать конкретный расчет величины энтропии системы.

> Верны ли ("да","нет") утверждения:

Но хотите получить от меня ответы на некоторые вопросы. Ну ладно.

> 1. Энтропия через секунду может как увеличиться, так и уменьшиться.

Вопрос не так прост, чтобы ответить на него "да" или "нет" и на этом остановиться. Энтропия выражает количество информации, недостающей наблюдателю до полного знания состоянии системы. Точнее - мат. ожидание этой величины (поскольку само это количество информации является случайной величиной). В процессе наблюдения (измерения) наблюдатель может получить дополнительную информацию, что может привести к снижению энтропии. Но если речь идет не о наблюдении, а теоретической модели, описывающей зависимость состояния системы от времени, то такая модель не должна приводить к снижению энтропии. Мало того, следствием неизбежной неточности модели является то самое увеличение энтропии, которое декларируется вторым началом.

Но известны и исключения, такие, как "Демон Максвелла": эта теоретическая модель формально приводит к уменьшению энтропии со временем. Но это уже предмет отдельного разговора.

> 2. Можно говорить о вероятности увеличения (уменьшения) энтропии через секунду.

Говорить-то можно о чем угодно. Например, можно говорить о вероятности того, что вероятность выпадения орла на монете равна 1/3. Но вообще-то это "масло масляное". Можно, конечно, придумать математическую модель с "вероятностями второго уровня" (я даже, как-то сталкивался с чем-то таким), но обычно от этого второго уровня получается мало проку. "Вероятности энтропий" - из той же оперы.



> > > E = -∑ip(i)log{p(i)}

> > Давайте еще раз на конкретном примере. Сосуд содержит 1000 молекул. В начальный момент времени в левой половине 490, в правой 510. Энтропия не максимальна (хотя отличается от максимальной незначительно).

> Рассчитайте для примера чему конкретно будет равна энтропия в данном случае (можете использовать приведенную формулу, если получится). Сдается мне, что Вы как-то неправильно понимаете энтропию.

> > Какой будет энтропия системы через секунду? Она с какой-то вероятностью может уменьшится (если в левой половине окажется меньше, чем 490 молекул) и (с несколько большей вероятностью) увеличится (если число молекул станет больше, чем 490). И вероятности эти отличаются не более, чем в несколько раз (среднеквадратичное отклонение примерно 11). Именно об этом шла речь в обруганном вами исходном сообщении. Да так и во всех учебниках написано. Врут что ли учебники?

> В хороших учебниках не так написано. Давайте их внимательно перечитаем. Приведенную выше формулу, определяющую величину энтропии через вероятности микросостояний, встречали? Согласны с ней? Каким тогда образом Вы ее можете применить для расчета конкретной величины энтропии? Из Вашего описания я этого пока не вижу, хотя Вы явно предполагаете, что энтропию как-то можно рассчитать.

Это же у Вас энтропия информационная, из кибернетики, в стат. физике она вроде не используется. По крайней мере нигде не видел, а я как раз обложился лит-рой (правда до понимания далеко...). Хотя бы на минус посмотреть...

Для расчета физ. энтропии тут вроде не хватает конкретного определения фазового пространства. Я вроде сосчитал для такого разбиения, чтобы 2 молекулы не занимали одного положения в пространстве. Энтропия тогда определяется перестановками молекул по этим ячейкам, перестановками между собой внутри и между половинами сосуда. Количество этих перестановок получилось

(Z!)^2 * (N1 + N2)!) / ((Z-N1)!*(Z-N2)!*N1!*N2!)

где N1 и N2 - количества частиц в половинах сосуда, Z - количество ячеек фазового пространства в каждой половине. Я исхожу из того, что каждая молекула с равной вероятностью может оказаться в любой половине и следовательно эти перестановки вычисляемые по этой формуле равновероятны.
Правда, разница маловата - для Z=1000 если в одной половине 1 частица, а в другой 999 - энтропия около 6000, а если поровну 500/500 энтропия около 7300, от 490/510 отличается на 0.3.

ЗЫ. Бел, Вы меня не убедили насчет Ферми.



> ЗЫ. Бел, Вы меня не убедили насчет Ферми.
Извиняюсь, обознался. Это был Def.


1. Статья была опубликована в PhysRev letters. То есть более вероятно что эпрос не знает физики чем рецензенты.

2. Эквивалентрность энтропии и информации, которую эпрос пытается тут продвигать это чушь. Может можно говорить об энтропии информации в какой-то степени, но никто не меряет энтропию в килобайтах. Информация это понятие очень относительное: то что для одного информация для другoгo вовсе не обязано быть информацией. C другой стороны энтропия это четко определeнная физическая величина.

3. Раньше эпрос даже пытался утверждать что 2-ой закон термодинамики строго соблюдается даже для одной молекулы - сейчас похоже он переcмотрел свой взгляд.

4. Для случая с молекулами в сосуде энтропия эквивалентна логарифму фазового объемa которое соответствует конкретному макросостоянию. Например, в состоянии когда N частиц занимают половину сосуда энтропия в ln(2^N) меньше, чем для состояния когда молекулы занимают весь сосуд.

5. Для состояния “490х510 молекул” посчитать энтропию немного сложнее. Тут надо добавить что есть 2 макросостояния 490х510 - одно со возможными перестановками молeкул, а другое без. Так как состояние 490х510 переходит в состояние 491х509 или в состояние 489х511 при перелете одной молекулы из одной чаcти сосуда в другую то к примеру Бела про 490x510 молекул более уместна энтропия состояния без перестановок, а не ту которую пытался посчитать Arseny (в фазовом пространстве существует много замкнутых облостей состветствующих разным 490х510 перестановакам молекул, и эти области не связаны).

6. Бел был абсолютно прав, что можно найти вероятности увеличения и уменьшения энтропии в состоянии 490х510. Вероятнее будет увеличение.

7. Истинный смысл 2-го закона термодинамики состоит в том что при блуждании по фазовому пространству система будет находиться вероятнее всего в макросостояниях с большим фазовым объемoм. Намного менее вероятно будет найти систему в малой области фазового пространства соответствующего малой энтропии. Но иногда система эти обласи посещает, что было показано эксперeментально aвстралийцами. То есть второй закон термодинамики это не что иное как утверждениe, что система переxодит в более вероятное состояние. Другого смысла в этом законе нет.

8. Интересно, что 2-й закон термодинамики соблюдается если обратить время, хотя это кажется противоречивым. При обращении времени система все равно будет переходить в более вероятное состояние. Жизнь похоже крутиться только потому, что во время Большого Взрыва вселанная имела очень низкую энтропию и все это время она увеличивалась.



> 5. Для состояния “490х510 молекул” посчитать энтропию немного сложнее. Тут надо добавить что есть 2 макросостояния 490х510 - одно со возможными перестановками молeкул, а другое без. Так как состояние 490х510 переходит в состояние 491х509 или в состояние 489х511 при перелете одной молекулы из одной чаcти сосуда в другую то к примеру Бела про 490x510 молекул более уместна энтропия состояния без перестановок, а не ту которую пытался посчитать Arseny (в фазовом пространстве существует много замкнутых облостей состветствующих разным 490х510 перестановакам молекул, и эти области не связаны).

В перестановках весь интерес! Я придумал проще вариант - (N1+N2) частиц независимо летают в ящике мысленно разделенном на 2 равные части. Тогда вариантов, что в левой части N1, а в правой N2 -

(N1+N2)!/(N1!*N2!)

Вероятность каждого варианта - (1/2)^(N1+N2)

Если перестановки не учитывать то это будет "микросостояние", вероятность что 490/500, что 1/999 одинакова (вот в этой модели)! Т.е. вы говорите, что частицы номер 1,2,5,33..84 слева, остальные справа. Выходит, энтропия 0.

Если пространство разбить на меньшие участки все будет иначе... Все зависит от модели.


...на основании наличия публикаций в солидных журналах.

Однако и в солидные журналы порой попадает такая чушь, что только диву даешься. Энтропия - это как раз та тема, в рамках которой это случается, пожалуй, чаще всего.

> 1. Статья была опубликована в PhysRev letters. То есть более вероятно что эпрос не знает физики чем рецензенты.

Не буду утверждать, что знаю физику лучше кого-то. Постараюсь отвечать по существу, не ссылаясь на авторитет журналов.

> 2. Эквивалентрность энтропии и информации, которую эпрос пытается тут продвигать это чушь. Может можно говорить об энтропии информации в какой-то степени, но никто не меряет энтропию в килобайтах. Информация это понятие очень относительное: то что для одного информация для другoгo вовсе не обязано быть информацией. C другой стороны энтропия это четко определeнная физическая величина.

Формула для энтропии выводится теорией информации безотносительно к "физической сущности" той системы, о которой идет речь. Термодинамика (а это уже раздел физики) показывает эквивалентность этой величины феноменологической энтропии, определяемой как dS = δQ/T.

Энтропия измеряется именно в байтах (или в битах). Но если домножить ее на постоянную Больцмана, то она, конечно, станет измеряться в Джоулях на Кельвин.

Энтропия, безусловно, есть четко определенная физическая величина. Что не исключает ее зависимости от того, какую физическую модель для описания системы использует наблюдатель. Точно так же, как и скорость есть четко определенная физическая величина, что не исключает ее зависимости от того, какой системой отсчета пользуется наблюдатель.

> 3. Раньше эпрос даже пытался утверждать что 2-ой закон термодинамики строго соблюдается даже для одной молекулы - сейчас похоже он переcмотрел свой взгляд.

Продолжаю утверждать. Приятно, что Вы это читали. Жаль, что не приняли.

> 4. Для случая с молекулами в сосуде энтропия эквивалентна логарифму фазового объемa которое соответствует конкретному макросостоянию. Например, в состоянии когда N частиц занимают половину сосуда энтропия в ln(2^N) меньше, чем для состояния когда молекулы занимают весь сосуд.

А что такое, по-Вашему, "фазовый объем, соответствующий макросостоянию"? Если определить положение и скорость каждой молекулы с абсолютной точностью, то "фазовый объем" такого состояния будет равен нулю. Даже в том случае, если в левой и в правой частях сосуда находится примерно одинаковое число молекул.

В том то и весь фокус, что положение и скорость каждой молекулы нам неизвестны. Поэтому мы и говорим не о точных значениях положений, а о вероятностях. Например, когда мы рассматриваем макросостояние, в котором все молекулы находятся в левой половине сосуда, мы считаем, что распределение pk(x) k-той молекулы по возможным координатам x: нулевое для x > x0 (правой половины сосуда) и равномерное для x < x0 (левой половины сосуда).

> 5. Для состояния “490х510 молекул” посчитать энтропию немного сложнее. Тут надо добавить что есть 2 макросостояния 490х510 - одно со возможными перестановками молeкул, а другое без. Так как состояние 490х510 переходит в состояние 491х509 или в состояние 489х511 при перелете одной молекулы из одной чаcти сосуда в другую то к примеру Бела про 490x510 молекул более уместна энтропия состояния без перестановок, а не ту которую пытался посчитать Arseny (в фазовом пространстве существует много замкнутых облостей состветствующих разным 490х510 перестановакам молекул, и эти области не связаны).

Опять же, можете переложить эти рассуждения на язык теории вероятностей и получите то самое распределение p(i), заданное на пространстве {i} возможных состояний системы, имеющем размерность 2×3×n (n - количество частиц, 2×3 - количество координат положений и импульсов каждой частицы). Остается только подставить это p(i) в формулу для энтропии. Обратите внимание, что таким образом Вы неявно декларируете, что в пределах известного объема нахождения частиц их распределение является равномерным.

> 6. Бел был абсолютно прав, что можно найти вероятности увеличения и уменьшения энтропии в состоянии 490х510. Вероятнее будет увеличение.

Если Вам неизвестны законы механики, по которым движутся частицы, Вы ничего не можете сказать о том, каково будет состояние системы через секунду. Но если Вам известны законы механики, то из точного знания их положений и скоростей теоретически Вы можете рассчитать их точные скорости и положения через секунду. Никакого отношения к вероятностям этот расчет иметь не будет. И поскольку "фазовые объемы" и сейчас и через секунду равны нулю (распределения вероятностей по возможным состояниям системы имеют вид δ-функций), энтропия как была, так и останется нулевой.

Другое дело, если Вы описываете макросостояние системы в терминах вероятностей (например, исходя из той самой картины, согласно которой столько-то частиц находятся слева и распределены по своей половине сосуда равномерно, а столько-то - справа и тоже распределены по своей половине равномерно). В этом случае расчет по формулам механики с применением операции свертки (чтобы получить ответ тоже в форме распределений вероятностей) даст скорее всего тот результат, что макросостояние системы через секунду будет характеризоваться бОльшей энтропией. Но для этого макросостояния Вы уже не сможете сказать, какое точное количество молекул находится в какой половинке сосуда: ответ будет только вероятностным.

Говорить о том, что через секунду система придет в одно макросостояние с такой-то вероятностью, а в другое - с такой-то, это значит использовать какую-то нетривиальную и не описанную нигде в явном виде модель. В рамках стандартной модели мы можем только рассчитать макросостояние, в которое должна прийти система (в его вероятностном описании) и подсчитать для этого макросостояния (для его вероятностного описания) энтропию.

> 7. Истинный смысл 2-го закона термодинамики состоит в том что при блуждании по фазовому пространству система будет находиться вероятнее всего в макросостояниях с большим фазовым объемoм. Намного менее вероятно будет найти систему в малой области фазового пространства соответствующего малой энтропии. Но иногда система эти обласи посещает, что было показано эксперeментально aвстралийцами. То есть второй закон термодинамики это не что иное как утверждениe, что система переxодит в более вероятное состояние. Другого смысла в этом законе нет.

"Блуждая по фазовому пространству", система на самом деле меняет не макро-, а микросостояния. Но поскольку в вероятностном описании этого буждания, называемом макросостоянием, заложен фактор неопределенности, он не может внезапно сам по-себе исчезнуть. Если Вы не знаете положения и скорости молекулы, никакое внезапное озарение не позволит Вам узнать, какова она будет через секунду. В этом и состоит единственный смысл второго начала: информация о состоянии системы не возникает из ниоткуда, она может только утрачиваться: неопределенность предсказания со временем становится больше, т.е. энтропия описания состояния системы (которое называется "макросостоянием") возрастает.

> 8. Интересно, что 2-й закон термодинамики соблюдается если обратить время, хотя это кажется противоречивым. При обращении времени система все равно будет переходить в более вероятное состояние. Жизнь похоже крутиться только потому, что во время Большого Взрыва вселанная имела очень низкую энтропию и все это время она увеличивалась.

Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается. Математически это связано с тем, что распределение по будущим состояниям вычисляется как свертка распределения по предыдущим состояниям с распределением по переходам. А эта операция необратима: зная ее результат и распределение по переходам, нельзя однозначно рассчитать исходное распределение.



Совершенно согласен. Дискуссию с г-ном epros-ом я прекратил потому, что просто надоело (как в старом анекдоте "не потому, что осознал, а потому что иссяк").


> Совершенно согласен. Дискуссию с г-ном epros-ом я прекратил потому, что просто надоело (как в старом анекдоте "не потому, что осознал, а потому что иссяк").

...осмысливать что-то новое для себя? Увы, бывает.


> Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается.

Тут есть одна тонкость. Действительно, обратив (мысленно) время в процессе эволюции неравновесной системы, мы получим невозможные вроде бы эффекты типа передачи тепла от холодного тела к горячему и т.п. Но эта процедура фактически означает, что мы знаем микросостояние системы (нам ведь придется обратить скорость каждой частицы). А раз так, то мы выходим из сферы действия 2 закона, который подразумевает неточное знание, на уровне термодинамических, а не механических параметров.

Чтобы оставаться в рамках термодинамики, надо обращать время, зная только макропараметры. Например, в холодную комнату вносят горячий утюг. С этого момента утюг начнет остывать, куда бы мы не устремили "вектор времени".


> 3. Раньше эпрос даже пытался утверждать что 2-ой закон термодинамики строго соблюдается даже для одной молекулы...

Пуркуа бы и не па? Пусть у нас есть "горячая" молекула, которую мы посадили в непрозрачный ящик, где она и мечется между стенок. Ситуация вполне термодинамическая - мы знаем объем ящика и давление, оказываемое на стенку, больше ничего. Получится у нас передать этой молекуле энергию из заведомо более холодной комнаты?


> Пуркуа бы и не па? Пусть у нас есть "горячая" молекула, которую мы посадили в непрозрачный ящик, где она и мечется между стенок. Ситуация вполне термодинамическая - мы знаем объем ящика и давление, оказываемое на стенку, больше ничего. Получится у нас передать этой молекуле энергию из заведомо более холодной комнаты?

По крайней мере уменьшить объейм этого ящика не затратив энергии можно.


> > Пуркуа бы и не па? Пусть у нас есть "горячая" молекула, которую мы посадили в непрозрачный ящик, где она и мечется между стенок. Ситуация вполне термодинамическая - мы знаем объем ящика и давление, оказываемое на стенку, больше ничего. Получится у нас передать этой молекуле энергию из заведомо более холодной комнаты?

> По крайней мере уменьшить объейм этого ящика не затратив энергии можно.

Как? Разве что случайно - но это уже статистика, о чем и речь :)


> > 3. Раньше эпрос даже пытался утверждать что 2-ой закон термодинамики строго соблюдается даже для одной молекулы...

> Пуркуа бы и не па? Пусть у нас есть "горячая" молекула, которую мы посадили в непрозрачный ящик, где она и мечется между стенок. Ситуация вполне термодинамическая - мы знаем объем ящика и давление, оказываемое на стенку, больше ничего. Получится у нас передать этой молекуле энергию из заведомо более холодной комнаты?

Не получится, если под словами "непрозрачный ящик" вы понимаете тепловую изоляцию. В этом случае не удастся передать энергию нашей системе и от более горячего тела. Однако если две системы могут обмениваться теплом, то в какой-то интервал времени возможна передача тепла от более холодного к более горячему телу. Это и есть флуктуации, роль которых тем больше, чем меньше частиц в системе. В среднем же поток тепла, конечно, направлен от горячего к холодному.


> > > Пуркуа бы и не па? Пусть у нас есть "горячая" молекула, которую мы посадили в непрозрачный ящик, где она и мечется между стенок. Ситуация вполне термодинамическая - мы знаем объем ящика и давление, оказываемое на стенку, больше ничего. Получится у нас передать этой молекуле энергию из заведомо более холодной комнаты?

> > По крайней мере уменьшить объем этого ящика не затратив энергии можно.

> Как? Разве что случайно - но это уже статистика, о чем и речь :)

Вот именно это я и имел в виду. epros утверждал что закон соблюдается точно (читай внимательней мой текст), а он выполняется только статистически.


> Однако и в солидные журналы порой попадает такая чушь, что только диву даешься.

Чушь там бывает, согласен, но про вечные двигатели, например, в PhysRevLetters статей не найдешь.

> Энтропия - это как раз та тема, в рамках которой это случается, пожалуй, чаще всего.

Может это ещё один знак что твоё понимание энтропии расходиться co стандартным?

> Энтропия измеряется именно в байтах (или в битах). Но если домножить ее на постоянную Больцмана, то она, конечно, станет измеряться в Джоулях на Кельвин.

В первый раз слышу что логарифм числа состояний можно мерять в байтах.

> А что такое, по-Вашему, "фазовый объем, соответствующий макросостоянию"? Если определить положение и скорость каждой молекулы с абсолютной точностью, то "фазовый объем" такого состояния будет равен нулю. Даже в том случае, если в левой и в правой частях сосуда находится примерно одинаковое число молекул.

Тут я немного плохо описал. Макросостояние это область в фазовом пространстве системы, микросостояние это точка в этом пространстве. Когда я говорил "фазовый объем" я имел в виду объем области в фазовом пространстве. Энтропия это логарифм объема этой области (в правильных единицах) в случае когда дискретных состояний нет, как в примере с молекулами.

Уравнения Гамильтона определяют векторное поле в фазовом пространстве. Эволюция системы это движение точки по фазовому пространству. Причем движение этой точки выглядит практически случайно.

Надо представлять грандиозную величину фазового пространства - в нем в нашем примере с молекулами 6*N измерений.

БOльшая чать фазового объема соответствует термодинамическому равновесию, а области соответствующие макросостояниям с малой энтропией чрезвычайно малы. Они например могут занимать 10^-100 от всего oбьема (дозволенного например энергией, гравитацией, и т. д). Поэтому если система начала своё движение в малой области с низкой энтропией, то она скорей всего попадет потом в бОльшую область, потом в ещё бОльшую, и так далее, пока в конце концов точка не окажется в области теплового равновесия.

> Говорить о том, что через секунду система придет в одно макросостояние с такой-то вероятностью, а в другое - с такой-то, это значит использовать какую-то нетривиальную и не описанную нигде в явном виде модель. В рамках стандартной модели мы можем только рассчитать макросостояние, в которое должна прийти система (в его вероятностном описании) и подсчитать для этого макросостояния (для его вероятностного описания) энтропию.

Зная только энтропии эту вероятность посчитать нельзя, но зная закон развития системы, можно посчитать вероятнось перехода из одного макросостояния в другое (как правило соседнее в фазовом пространстве). Тут мы вроде почти согласны. Только ты не согласен с тем что в новом макросостоянии энтропия может оказаться меньше.

> "Блуждая по фазовому пространству", система на самом деле меняет не макро-, а микросостояния. Но поскольку в вероятностном описании этого буждания, называемом макросостоянием, заложен фактор неопределенности, он не может внезапно сам по-себе исчезнуть. Если Вы не знаете положения и скорости молекулы, никакое внезапное озарение не позволит Вам узнать, какова она будет через секунду. В этом и состоит единственный смысл второго начала: информация о состоянии системы не возникает из ниоткуда, она может только утрачиваться: неопределенность предсказания со временем становится больше, т.е. энтропия описания состояния системы (которое называется "макросостоянием") возрастает.

Ну это просто вода. Уверен что никто полностью не понимает что ты тут имеешь в виду.

> > 8. Интересно, что 2-й закон термодинамики соблюдается если обратить время, хотя это кажется противоречивым. При обращении времени система все равно будет переходить в более вероятное состояние. Жизнь похоже крутиться только потому, что во время Большого Взрыва вселанная имела очень низкую энтропию и все это время она увеличивалась.

> Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается. Математически это связано с тем, что распределение по будущим состояниям вычисляется как свертка распределения по предыдущим состояниям с распределением по переходам. А эта операция необратима: зная ее результат и распределение по переходам, нельзя однозначно рассчитать исходное распределение.

Объясню так чтоб cтало ясно раз и навсегда.

Представляем фазовое пространство вселенной (10^200-300 измерений). Выписываем гамилтониан вселенной. Рисуем все линии эволюции в фазовом пространстве. Раскрашиваем разными красками области которые соответствуют разным макросостояниям. Энтропия каждого состояняй это логарифм массы краски.

Теперь вселанная начала свою эволюцию где-то в малой области и пошла переходить из области в область, каждая новая область грандиозно больше предыдущей. Так прошло 15 миллиардов лет и каждую фемтосекунду новая область была в 10^100 раз больше предыдущей.

Теперь если вдруг обратить время, то вселенная пойдет обратно по этой же кривой и попадет в начальную точку в области с очень маленькой энтропией (это все относиться к классическому рассмотрению, но если включить квантовую механику то первое квантовое событие полностью разрушит обратную воспроизводимость эволюции и энтропия в любом случае будет увеличиваться назад по времени(хотя вопрос спорный)). Здесь можно говорить о том, что энтрпия при обращении времени уменьшается. Но c другой стороны если мы случайно выберем точку в фазовом пространстве вселенной то энтропия будет увеличиваться в обе стороны по линии эволюции проходящей через эту точку.

Лишь с ничтожной вероятностью 1/10^100^100^100... мы можем попасть в точку стартуя из которой энтропия будет всегда уменьшаться. Поэтому фактически нельзя говорить, что при обращении времени энтропия будет уменьшаться (а то тебя засыпет метеоритами).


>
> Совершенно согласен. Дискуссию с г-ном epros-ом я прекратил потому, что просто надоело (как в старом анекдоте "не потому, что осознал, а потому что иссяк").

Да эпрос это один из тех кто любит разтечься мыслью по древу.


> В перестановках весь интерес! Я придумал проще вариант - (N1+N2) частиц независимо летают в ящике мысленно разделенном на 2 равные части. Тогда вариантов, что в левой части N1, а в правой N2 -

> (N1+N2)!/(N1!*N2!)

> Вероятность каждого варианта - (1/2)^(N1+N2)

> Если перестановки не учитывать то это будет "микросостояние", вероятность что 490/500, что 1/999 одинакова (вот в этой модели)! Т.е. вы говорите, что частицы номер 1,2,5,33..84 слева, остальные справа. Выходит, энтропия 0.

> Если пространство разбить на меньшие участки все будет иначе... Все зависит от модели.

Да похоже ты прав - энтропия всех состояний без перестановок одинаковая (или приблизительно одинаковая), только она не равна нулю (но минимальная).


> > > По крайней мере уменьшить объем этого ящика не затратив энергии можно.

> > Как? Разве что случайно - но это уже статистика, о чем и речь :)

> Вот именно это я и имел в виду. epros утверждал что закон соблюдается точно (читай внимательней мой текст), а он выполняется только статистически.

Статистика соблюдается статистически... Масло является маслянистым...

Из того, что вероятность выпадения орла = 1/2 следует, что вероятность выпадения двух орлов в двух независимых бросаниях = 1/4. Это точное математическое правило. Оно не может "иногда" не выполняться: это лишило бы формализм теории вероятности смысла. Но монета, конечно, иногда может и решкой выпасть, что теорию не отменяет.

Модели, описывающие состояние физических объектов, подчиняются второму началу. Это - математический вывод, применимый к описаниям практически любых объектов. Флуктуаций это не отменяет, но к состоятельности формулировки второго начала это не имеет никакого отношения.

Если у нас есть одна молекула в ящике, но мы ничего не знаем о ее моментальном положении, а знаем только среднее давление, оказываемое ей на стенки, то после уменьшения объема ящика мы можем сказать об ее энергии только то, что она увеличилась на случайную величину, мат. ожидание которой соответствует P*ΔV.


> В перестановках весь интерес! Я придумал проще вариант - (N1+N2) частиц независимо летают в ящике мысленно разделенном на 2 равные части. Тогда вариантов, что в левой части N1, а в правой N2 -

> (N1+N2)!/(N1!*N2!)

> Вероятность каждого варианта - (1/2)^(N1+N2)

Это неправильно хотя бы потому, что поскольку полное количество вариантов N, то у вас не получится вероятность 1 при суммировании по всем вариантам. Вероятность каждого варианта определяется биномиальным распределением, то есть вашу вероятность надо домножить на количество сочетаний из N по N1 (или по N2, что то же самое).

> Если перестановки не учитывать то это будет "микросостояние", вероятность что 490/500, что 1/999 одинакова (вот в этой модели)! Т.е. вы говорите, что частицы номер 1,2,5,33..84 слева, остальные справа. Выходит, энтропия 0.

> Если пространство разбить на меньшие участки все будет иначе... Все зависит от модели.

Да, при произвольном разбиении энтропия определяется с точностью до константы.


> > Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается.

> Тут есть одна тонкость. Действительно, обратив (мысленно) время в процессе эволюции неравновесной системы, мы получим невозможные вроде бы эффекты типа передачи тепла от холодного тела к горячему и т.п. Но эта процедура фактически означает, что мы знаем микросостояние системы (нам ведь придется обратить скорость каждой частицы). А раз так, то мы выходим из сферы действия 2 закона, который подразумевает неточное знание, на уровне термодинамических, а не механических параметров.

> Чтобы оставаться в рамках термодинамики, надо обращать время, зная только макропараметры. Например, в холодную комнату вносят горячий утюг. С этого момента утюг начнет остывать, куда бы мы не устремили "вектор времени".

В целом Вы правы. Хочу только уточнить.

Точные решения уравнений любой динамики обратимы по времени: по конечным состояниям можно рассчитать начальные. Это значит, что можно составить такие уравнения, которые будут описывать движение системы в обратном направлении по времени (пусть даже они в чем-то не совпадут с "прямыми" уравнениями - симметрия не обязательна).

Именно так все и выглядело бы с точки зрения точного знания микросостояний. Термодинамика начинается там, где возникают неопределенности. Термодинамическое понятие "макросостояния" как раз и соответствует неточному описанию системы. В этом (вероятностном) описании все выглядит иначе: в общем случае нельзя по неточному описанию конечного состояния восстановить исходное неточное описание начального состояния. Т.е., образно говоря, мы не сможем подобрать уравнений, которые бы описывали то, как выключенный холодный утюг, находящийся в холодной комнате, становится горячим.

Чувствуете разницу: с точки зрения точной механики можно представить себе мир, развивающийся в обратном порядке, с точки зрения термодинамики - нельзя.


> > Однако и в солидные журналы порой попадает такая чушь, что только диву даешься.

> Чушь там бывает, согласен, но про вечные двигатели, например, в PhysRevLetters статей не найдешь.

И слава Богу. Откровенной хиромантии они, конечно, не допустят. Но иногда фильтрация по чисто формальным признакам приводит к тому, что проходят идеи, по своей сути, если не по форме, довольно близкие к тем же вечным двигателям.

> > Энтропия - это как раз та тема, в рамках которой это случается, пожалуй, чаще всего.

> Может это ещё один знак что твоё понимание энтропии расходиться co стандартным?

В чем же знак? Большинство авторов физических журналов нормально интерпретируют понятие "энтропия". По крайней мере у меня с ними никаких разногласий нет. Но иногда случаются и ляпы. Бывает, знаете ли, что автору хочется что-то сказать по теме, а когда за словами нет конкретной математики, получается бессмыслица.

> В первый раз слышу что логарифм числа состояний можно мерять в байтах.

А что ж тогда такое по-Вашему байт? Есть элемент памяти, который может находиться в одном из 256 возможных состояний. Все состояния равноправны, т.е. с нашей точки зрения изначально равновероятны: p(i) = 1/256 для любого i. Какое количество информации мы получим, когда узнаем, каково в действительности состояние этого элемента? Теория информации отвечает: I = -log2p(i) = 8 бит, т.е. один байт.

> Макросостояние это область в фазовом пространстве системы, микросостояние это точка в этом пространстве. Когда я говорил "фазовый объем" я имел в виду объем области в фазовом пространстве. Энтропия это логарифм объема этой области (в правильных единицах) в случае когда дискретных состояний нет, как в примере с молекулами.

Это правильно. Только не сАмому общему случаю соответствует. А наиболее общий случай - это распределение вероятностей, заданное на точках фазового пространства (если микросостояния описываются точками фазового пространства). Вы же рассматриваете только случай, когда распределение по рассматриваемой области фазового пространства равномерное. Естественно, в этом случае плотность вероятности p(i) = 1/V для i, принадлежащих рассматриваемой области, и p(i) = 0 для i, не принадлежащих ей. Если теперь Вы подставите эту плотность вероятностей в общую формулу для энтропии:
E = -∑i p(i)*log{p(i)}
то как раз и получите тот самый логарифм фазового объема.

Ферштейн? Вообще-то логарифмы фазовых объемов были специально придуманы для тех, кто не знает, что такое вероятности. Но я рассчитываю на Ваше понимание.

Общий случай - это не баловство. В термодинамике иногда рассматривают распределения не только по точкам фазового пространства, а, например, по энергетическим состояниям. А их в большинстве случаев никак нельзя считать равномерными.

> Уравнения Гамильтона определяют векторное поле в фазовом пространстве. Эволюция системы это движение точки по фазовому пространству. Причем движение этой точки выглядит практически случайно.

Скажете тоже. Движение точки по фазовому пространству однозначно определяется уравнениями механики. Никаких случайностей здесь нет, сколько бы частиц Вы ни рассматривали. Сложнее их решить - это да. Но это уже Ваша проблема, а не проблема модели, описывающей систему.

> БOльшая чать фазового объема соответствует термодинамическому равновесию, а области соответствующие макросостояниям с малой энтропией чрезвычайно малы. Они например могут занимать 10^-100 от всего oбьема (дозволенного например энергией, гравитацией, и т. д). Поэтому если система начала своё движение в малой области с низкой энтропией, то она скорей всего попадет потом в бОльшую область, потом в ещё бОльшую, и так далее, пока в конце концов точка не окажется в области теплового равновесия.

Ну Вы здесь и насочиняли альтернативной термодинамики. В фазовом пространстве нет никаких "областей, соответствующих малой энтропии," или "областей, соответствующих большой энтропии," - все области одинаковы. Энтропия определяется не местоположением области в фазовом пространстве, а только ее объемом. Сами же написали - логарифм объема и ничего больше.

> Зная только энтропии эту вероятность посчитать нельзя, но зная закон развития системы, можно посчитать вероятнось перехода из одного макросостояния в другое (как правило соседнее в фазовом пространстве). Тут мы вроде почти согласны. Только ты не согласен с тем что в новом макросостоянии энтропия может оказаться меньше.

Я понял, что тут Вы меня не поняли. Зная уравнения механики и исходное макросостояние (область фазового пространства), можно рассчитать будущее распределение вероятностей по точкам фазового пространства. Это распределение и есть будущее макросостояние. Для него можно подсчитать энтропию. И для большинства моделей, описывающих эволюцию системы, (кроме таких, как "Демон Максвелла") она окажется выше исходной.

> > "Блуждая по фазовому пространству", система на самом деле меняет не макро-, а микросостояния. Но поскольку в вероятностном описании этого буждания, называемом макросостоянием, заложен фактор неопределенности, он не может внезапно сам по-себе исчезнуть. Если Вы не знаете положения и скорости молекулы, никакое внезапное озарение не позволит Вам узнать, какова она будет через секунду. В этом и состоит единственный смысл второго начала: информация о состоянии системы не возникает из ниоткуда, она может только утрачиваться: неопределенность предсказания со временем становится больше, т.е. энтропия описания состояния системы (которое называется "макросостоянием") возрастает.

> Ну это просто вода. Уверен что никто полностью не понимает что ты тут имеешь в виду.

Ну, кто этого не понял, тот наверняка и учебник по термодинамике не понял. Есть какие-то пределы упрощения, ниже которых трудно опуститься. "Неопределенность предсказания со временем становится больше" - как можно еще проще сказать?

> Объясню так чтоб cтало ясно раз и навсегда...

Дальнейшего не понял.

Единственный вывод, который я сделал из нижеследующего текста, это то, что Вы считаете, будто фазовое пространство изначально поделено на некие "области" соответствующие макросостояниям. На самом деле, конечно, это совершенно не так. Можно выбрать абсолютно любую область, любой формы и размера и даже состоящую из разрозненных кусочков, и ей будет соответствовать макросостояние.


> А что ж тогда такое по-Вашему байт? Есть элемент памяти, который может находиться в одном из 256 возможных состояний. Все состояния равноправны, т.е. с нашей точки зрения изначально равновероятны: p(i) = 1/256 для любого i. Какое количество информации мы получим, когда узнаем, каково в действительности состояние этого элемента? Теория информации отвечает: I = -log2p(i) = 8 бит, т.е. один байт.

Формула действительно похожа (правда логарифм не натуральный), но мне почему-то не очевидно, что энтропию непрерывной системы резонно мерять в байтах. Утверждение что энтропия=информация не верно. Повторяюсь, что можно говорить об энтропии в области информации, но нельзя говорить что энтропия это информация.
Энтропия это физическая величина, а информация сугубо относительная вещь. Информация не может существовать в вакууме, то есть она должна быть на физичеком носителе, то есть это уже физический объект, например чернила или магнитное покрытие. Информация не может быть просто так по себе - она должа обязательно быть про что-то, она должна иметь назначение. Сколько информации в последовательности из 100 нулей? Сколько информации на сломавшемся винчестере? Сколько информации в тексте преобразованном в картинку? Зависит от назначения. Чтоб определить точное положение молекулы надо бесконечное число знаков - информации. Это значит что просто в положении молекулы уже бесконечная информация?

Если энтропия это информация, это что значит если где-то энтропия уменьшилась, то возможно где-то увеличилось количество информации? В каком виде? В китайских иероглифах?

Это что получается что количество информации должно расти всегда? С какой стати? А как если я файл стер - это в энтропию перешло? А если файл записал, что энтропию отнял где-то?

В общем, epros, хватит нам впихивать этот модный бред про то что энтропия=информация. Меня на физтехе Пергамент достал когда читал лекции - ему эта тема тоже нравилась. Если формулы похожи, то это не значит полная эквивалентность. Есть связь но не полная. Честнее надо быть.

Вообще то мы отвлекслись от первоначальной темы про то, что можно обнаружить уменьшающуюсия энтропию. Большинство своего текста я написал просто для объяснения более понятного подхода к пониманию 2-го закона термодинамики, а так же именно для того чтоб показать что epros не прав в единственном вопросе утверждая что энтропия ВООБЩЕ никогда уменьшаться не может. Может, и это можно зафиксировать, что сделали австралийские ученые (хотя они могли не замитить утечку иероглифов). Если этот вопрос ты хочешь продолжать обсуждать то лучше пиши на ветке про одну молекулу в ящике - это ближе. Смежные вопросы мне менее интересно обсуждать.

> Вы же рассматриваете только случай, когда распределение по рассматриваемой области фазового пространства равномерное. Естественно, в этом случае плотность вероятности p(i) = 1/V для i, принадлежащих рассматриваемой области, и p(i) = 0 для i, не принадлежащих ей. Если теперь Вы подставите эту плотность вероятностей в общую формулу для энтропии:
> E = -∑i p(i)*log{p(i)}
> то как раз и получите тот самый логарифм фазового объема.

> Ферштейн? Вообще-то логарифмы фазовых объемов были специально придуманы для тех, кто не знает, что такое вероятности. Но я рассчитываю на Ваше понимание.

Моё объяснение качественное. Можно для случая молекул с газом функцию распределения опустить.

> Общий случай - это не баловство. В термодинамике иногда рассматривают распределения не только по точкам фазового пространства, а, например, по энергетическим состояниям. А их в большинстве случаев никак нельзя считать равномерными.

Обсуждение было про сосуд с молекулами.

> > Уравнения Гамильтона определяют векторное поле в фазовом пространстве. Эволюция системы это движение точки по фазовому пространству. Причем движение этой точки выглядит практически случайно.

> Скажете тоже. Движение точки по фазовому пространству однозначно определяется уравнениями механики. Никаких случайностей здесь нет, сколько бы частиц Вы ни рассматривали. Сложнее их решить - это да. Но это уже Ваша проблема, а не проблема модели, описывающей систему.

Я написал “выглядит”!

> Ну Вы здесь и насочиняли альтернативной термодинамики. В фазовом пространстве нет никаких "областей, соответствующих малой энтропии," или "областей, соответствующих большой энтропии," - все области одинаковы. Энтропия определяется не местоположением области в фазовом пространстве, а только ее объемом. Сами же написали - логарифм объема и ничего больше.

Я думал будет понятно что макросостояния мы определяем (define) сами. Например, сосуд со всеми молекулами в одной половине или макросостояние “яйцо целое”. Каждому макросостоянию которое мы выдумали соответствует область в фазовом пространстве.

> Дальнейшего не понял.

Теперь можешь перечитать мои объянсния учитывая вышеуказанную добавку.

> Единственный вывод, который я сделал из нижеследующего текста, это то, что Вы считаете, будто фазовое пространство изначально поделено на некие "области" соответствующие макросостояниям. На самом деле, конечно, это совершенно не так. Можно выбрать абсолютно любую область, любой формы и размера и даже состоящую из разрозненных кусочков, и ей будет соответствовать макросостояние.

Tут мы просто не поняли друг друга.



> > В перестановках весь интерес! Я придумал проще вариант - (N1+N2) частиц независимо летают в ящике мысленно разделенном на 2 равные части. Тогда вариантов, что в левой части N1, а в правой N2 -

> > (N1+N2)!/(N1!*N2!)

> > Вероятность каждого варианта - (1/2)^(N1+N2)

> Это неправильно хотя бы потому, что поскольку полное количество вариантов N, то у вас не получится вероятность 1 при суммировании по всем вариантам. Вероятность каждого варианта определяется биномиальным распределением, то есть вашу вероятность надо домножить на количество сочетаний из N по N1 (или по N2, что то же самое).

Что такое N? Количество частиц (N1+N2), ладно, пусть N1+N2=N, равновероятных вариантов 2^N - каждый вариант описывает где находится каждая частица - справа или слева. Представьте последовательность 10010101001... из N цифр, i-тая цифра показывает где i-тая частица. Таких последовательностей 2^N.


> > Теория информации отвечает: I = -log2p(i) = 8 бит, т.е. один байт.

> Формула действительно похожа (правда логарифм не натуральный), но мне почему-то не очевидно, что энтропию непрерывной системы резонно мерять в байтах.

Основание логарифма определяет только постоянный коэффициент или единицу измерения. Если основание 2 - единица измерения - бит, если основание 256 - единица измерения - байт. Поэтому я и не писал в общей формуле для энтропии основание логарифма.

В непрерывной системе энтропия определена с точностью до константы. Т.е. ее величина будет зависеть от того, какую единицу для измерения "фазового объема" мы выберем. Если состояние системы известно с точностью до выбранной единицы - энтропия нулевая. А более мелких единиц мы "не различаем". Начали различать состояния с точностью в 1024 раз большей - сразу стали измерять энтропию относительно точки, лежащей на log21024 = 10 бит ниже.

> Утверждение что энтропия=информация не верно. Повторяюсь, что можно говорить об энтропии в области информации, но нельзя говорить что энтропия это информация.

Повторяю, энтропия - это математическое ожидание количества информации, недостающей до точного знания состояния системы.

"Энтропия = информация" - это вульгарное упрощение. Во-первых, информация (знание) - это не количественная величина. Действительным числом измеряется количество информации, а не сама информация. Во-вторых, энтропия с количеством информации связана обратным соотношением (обратите внимание на слово "недостающая" в определении): чем больше информации мы получаем, тем меньше становится энтропия описываемого объекта. И, наконец, в третьих, количество информации, недостающей до точного знания, само является случайной величиной. А энтропия - не случайная величина, а действительное число. Потому что она определяется как математическое ожидание случайной величины.

> Энтропия это физическая величина, а информация сугубо относительная вещь.

Модели, описывающие состояние физических объектов, тоже являются "сугубо относительными вещами". Эйнштейна уважаете? :-)

> Информация не может существовать в вакууме, то есть она должна быть на физичеком носителе, то есть это уже физический объект, например чернила или магнитное покрытие.

Физическим носителем информации является множество возможных состояний рассматриваемого объекта. Не важно, что это - газ в баллоне или участки магнитного покрытия дискеты.

> Информация не может быть просто так по себе - она должа обязательно быть про что-то, она должна иметь назначение.

Назначение информации определяется тем, для чего была создана модель, описывающая состояния рассматриваемого физического объекта.

> Сколько информации в последовательности из 100 нулей? Сколько информации на сломавшемся винчестере? Сколько информации в тексте преобразованном в картинку? Зависит от назначения.

Верно. Те комбинации возможных состояний объекта, которые с точки зрения предполагаемого назначения безразличны, просто не рассматриваются и, естественно, в расчет количества информации и энтропии не включаются. Например, дисковод не учитывает магнитные моменты отдельных атомов: он видит только среднюю намагниченность отдельных участков.

> Чтоб определить точное положение молекулы надо бесконечное число знаков - информации. Это значит что просто в положении молекулы уже бесконечная информация?

Если Вам удастся действительно определить положение молекулы с бесконечной точностью, то при этом Вы действительно получите бесконечное количество информации. Но в жизни так не бывает. Реально полученное количество информации определяется реальной точностью, с которой определено положение молекулы. Обычно это в лучшем случае число из 2 - 3 знаков. Считайте :-)

> Если энтропия это информация, это что значит если где-то энтропия уменьшилась, то возможно где-то увеличилось количество информации? В каком виде? В китайских иероглифах?

Не где-то, а в рамках того же описания рассматриваемого объекта. В виде изменившегося распределения вероятностей по возможным состояниям этого объекта. Энтропия газетного листа, который мы не можем разглядеть, а поэтому не знаем, что там написано, максимальна. Но вот разглядели, и энтропия уменьшилась. В точном соответствии с тем, что мы получили информацию о состоянии газетного листа.

> Это что получается что количество информации должно расти всегда?

Почему расти? Информация может как приобретаться, так и утрачиваться.

> С какой стати? А как если я файл стер - это в энтропию перешло? А если файл записал, что энтропию отнял где-то?

Примерно так. Главное - различные модели, описывающие объект, между собой не перепутать.

> В общем, epros, хватит нам впихивать этот модный бред про то что энтропия=информация. Меня на физтехе Пергамент достал когда читал лекции - ему эта тема тоже нравилась. Если формулы похожи, то это не значит полная эквивалентность. Есть связь но не полная. Честнее надо быть.

Это не "модный бред", а физика. Лекции внимательнее надо было бы слушать. И речь идет не о сходстве формул, а о соответствии смыслов. Больцман вон завещал эту формулу на своей могилке выбить. Не помогло, многие до сих пор не въехали.

> Вообще то мы отвлекслись от первоначальной темы про то, что можно обнаружить уменьшающуюсия энтропию. Большинство своего текста я написал просто для объяснения более понятного подхода к пониманию 2-го закона термодинамики, а так же именно для того чтоб показать что epros не прав в единственном вопросе утверждая что энтропия ВООБЩЕ никогда уменьшаться не может. Может, и это можно зафиксировать, что сделали австралийские ученые (хотя они могли не замитить утечку иероглифов). Если этот вопрос ты хочешь продолжать обсуждать то лучше пиши на ветке про одну молекулу в ящике - это ближе. Смежные вопросы мне менее интересно обсуждать.

Австраллийские ученые, похоже, просто не умеют энтропию рассчитывать. А факт наличия флуктуаций различных физических величин и задолго до них был известен.

Ну хорошо, давайте про одну молекулу. Для простоты - про одномерный случай и про ньютоновскую механику. Итак, молекула массы m, в начальный момент t = 0 ее положение известно точно (xср = x0, Δx = 0), а импульс известен с некоторой погрешностью 1 кг*м/с (pср = p0, Δp = 1 кг*м/с). Определить погрешность положения и импульса через секунду, сделать вывод об энтропии.

> > > ...движение этой точки выглядит практически случайно.

> > Движение точки по фазовому пространству однозначно определяется уравнениями механики. Никаких случайностей здесь нет, сколько бы частиц Вы ни рассматривали.

> Я написал “выглядит”!

Свои ошущения надо бы отложить в сторону. "Случайное" - значит описываемое в терминах теории вероятностей. Если же все вероятности сводятся к нулям и единицам, то это уже не случайности, а детерминизм. Вопрос, как что "выглядит" с точки зрения тех или иных эстетических предпочтений, к физике не имеет отношения.

Но модели эволюции системы могут быть, конечно, вероятностными. Как я уже писал, в общем случае есть распределение по начальным состояниям:
p(iнач)
и переходные распределения:
p(iкон|iнач)
(Это - условное распределение: после вертикальной черты стоит условие).
Конечное распределение получается свертыванием одного с другим:
p(iкон) = ∑iнач p(iнач)*p(iкон|iнач)


>
> > > В перестановках весь интерес! Я придумал проще вариант - (N1+N2) частиц независимо летают в ящике мысленно разделенном на 2 равные части. Тогда вариантов, что в левой части N1, а в правой N2 -

> > > (N1+N2)!/(N1!*N2!)

> > > Вероятность каждого варианта - (1/2)^(N1+N2)

> > Это неправильно хотя бы потому, что поскольку полное количество вариантов N, то у вас не получится вероятность 1 при суммировании по всем вариантам. Вероятность каждого варианта определяется биномиальным распределением, то есть вашу вероятность надо домножить на количество сочетаний из N по N1 (или по N2, что то же самое).

> Что такое N? Количество частиц (N1+N2), ладно, пусть N1+N2=N, равновероятных вариантов 2^N - каждый вариант описывает где находится каждая частица - справа или слева. Представьте последовательность 10010101001... из N цифр, i-тая цифра показывает где i-тая частица. Таких последовательностей 2^N.


Конечно, вы правы. Но для того, чтобы считать энтропию вам надо учитывать только физически различимые состояния. Перестановка двух молекул в левой (правой) половине - это одно и то же макроскопическое состояние. Разные макроскопичемкие состояния такие: в левой половине 0 - в правой N, в левой половине 1 - в правой N-1, и т.д. Такие состояния можно различить, например, по давлению в каждой половине. Я писал о вероятности именно таких - физически различимых - состояний.


В последнем сообщении количество неправильных суждений увеличилось настолько что мне уже становится лень спорить. Для меня важнее истина чем факт кто выиграл спрор, но часто существуют спорщики которые не чувствуют что спор должен придерживаться каких-то (тонких) предпосылок и уводят тебя от темы.

Твой диагнос:
1) Ты не знаешь или не понимаешь что такое информация и пользуешьси этим (модным в наше компьютерное время) словом для придания солидности своему неправильному пониманию физического понятия энтропии.
2) Ты не видишь разницы в определениях энтропии как a) логарифм числа состояний и б) информации недостающей для точного определения состояния системы.

На последок небольшой анекдот.

СТУДЕНТ: Эпрос, австралийцы провели эксперимент показывающий что энтропия посчитанная через а) может уменьшаться; вы утверждаете что надо считать энтропию используя б), которая уменьшаться не может?
ЭПРОС: Да, австралийцы неправильно считали энтропию.
СТУДЕНТ: То есть они незаметили исчезновения информации?
ЭПРОС: Да, вы совершенно правы.
СТУДЕНТ: Каким образом прошло это изчезновение информации?
ЭПРОС: А эта информация как раз и изчезла.


Privet unabashed. Interesnaya diskussiya. Zhal' vremeni net vse prochitat'. Eto zh svezhiy PRL. Ya by posovetoval eprosu napisat' Comment. So ssylkoy na forum - pust' znayut.


Случайно не на той ветке опубликовал сообщение. Моё сообщение явлиется ответом на сообщение эпроса “Re:Ещё про энтропию”


Знаешь ли, сэр: не имею желания ни о чем спорить и ни в чем тебя убеждать. Если тебе не интересно, в чем состоят твои ошибки, оставайся при своей наивной точке зрения.

> Твой диагнос:
> 1) Ты не знаешь или не понимаешь что такое информация и пользуешьси этим (модным в наше компьютерное время) словом для придания солидности своему неправильному пониманию физического понятия энтропии.

Видать ты это очень хорошо понимаешь. Настолько хорошо, что считаешь, будто теория информации только передачей сигналов да компьютерами занимается, а к физическим моделям никакого отношения не имеет. Поэтому энтропия в физике и энтропия в теории информации - случайное совпадение названий.

> 2) Ты не видишь разницы в определениях энтропии как a) логарифм числа состояний и б) информации недостающей для точного определения состояния системы.

Разница, конечно, огромная: тот кто не знает, что такое вероятность, никогда не поймет, что такое количество информации и почему логарифм от числа состояний (N) оказывается равным отрицательному логарифму от вероятности состояния (1/N).


Уважаемые участники.
В этой ветке возникла интересная дискуссия про основной смысл второго закона термодинамики.

1) Одна точка зрения состоит в том, что второе начало это ни что иное как просто другая форма утверждения, что система переходит в более вероятное состояние.
2) Другая точка зрения состоит в том что закон увеличения энтропии вытекает из принципа, что “информация не возникает из ниоткуда”.

Интересно знать ваше мнение: что же лежит в основе второго начала термодинамики? Пожлуйста проголосуйте.


> Конечно, вы правы.
Большое вам спасибо.

> Но для того, чтобы считать энтропию вам надо учитывать только физически различимые состояния. Перестановка двух молекул в левой (правой) половине - это одно и то же макроскопическое состояние. Разные макроскопичемкие состояния такие: в левой половине 0 - в правой N, в левой половине 1 - в правой N-1, и т.д. Такие состояния можно различить, например, по давлению в каждой половине. Я писал о вероятности именно таких - физически различимых - состояний.

Я вроде их и посчитал. Главное, чтобы вы не думали, что перестановка между двумя половинами не играет роли.


> 1) Одна точка зрения состоит в том, что второе начало это ни что иное как просто другая форма утверждения, что система переходит в более вероятное состояние.

Замечу, что "другая точка зрения" (т.е. моя) этого не отрицает. Только в этом утверждении содержится гораздо менее тривиальный смысл, чем просто соображение о том, что якобы существуют "более вероятные" и "менее вероятные" состояния.


> Интересно знать ваше мнение: что же лежит в основе второго начала термодинамики? Пожлуйста проголосуйте.

И что же такое голосование может доказать? Как материал для форума по социологии разве что. Но мнение свое я бы уже высказал - почитал все же вашу перепалку, и надо сказать что утверждения eprosa которые я осилил прочесть кажутся (приходиться опираться на чувства когда не до конца понимаешь суть) наиболее резонными.

unabashed, пункты для голосования сформулироваены как-то нечестно - кто ж будет спорить с первым? Но если опять подразумевалась та первоначальная фраза что "для неравновесной замкнутой системы наиболее вероятным в каждый последующий момент времени будет состояние с бОльшей энтропией", то я согласен что это "масло масляное". Насколько я понимаю, определить энтропию неравновесной системы можно только разбив ее на сумму равновесных подсистем, что накладывает естественное ограничение на промежуток времени меньше которого говорить об энтропии бесмысленно (Ландафшиц, Статы, п.7, прислать?). Это несколько не согласуется с "каждым последующим моментом".

Утверждение же о потере информации мне понятно. Такая формулировка, хоть и не дает объяснения почему существует соотношение неопределенностей и 2-й закон, имеет куда более глубокий физический смысл чем первая, утверждая что любая неопределенность будет приводить к увеличению энтропии со временем.

Насчет обратимости времени можешь того же Ландафшица посмотреть (п.8) или Фейнмана (v.1 46-5), хотя это уже изложили epros и drevnij.

Возможно я все же не понял твой основной тезис - за что боремся - сформулируешь?


Разгребу дела снова подключусь. А пока, товарищи, голосуйте, выражайте свои мнения по основному смыслу 2-го закона термодинамики.

С информацией я понимаю точку зрения но принять не могу по нескольким причинам. Например

1) Принцип что информация не возникает ниоткуда для меня не представляется очевидным. Информация например может генерироваться гамильтониaном, так же как множество Мандельброта генерируется простой формулой или случайные числа генерируются генератором. Примеров много и некоторые весьма интересные и сложные бывают (например, неалгоритмические явления в математике и физике, непериодическое покрытие плоскости, псевдопятимерная симметрия (в кристаллах), т. д.).

2) Энтропия макросостояния должа зависить только от этого состояния, а не от того насколько кто-то про состояниё системы знает. А то получиться для одного человека энтропия сосуда з газом одна, а для другого другая.

3) В состоянии термодинамического равновесия информачия о системе теряется со временем (из-за хаотичности (chaotic, английский термин который я могу не правильно перевести)), а энтропия не растет. У меня есть подозрение, что некоторые люди путают закон увеличения энтропии с нормалым поведением хаотической системы.

4) Опять же кристаллы. Kогда тело кристаллизуется, то информация необходимая для его описания резко падает по сравнением с жидким состоянием. Хотя энтропия тоже падает, но мне как не кажеться что настолько же. Тут же можно привести кристаллы с пятимерной симметрией, для описания которых необходимо огромнейшее количество информации, по сравнению с обычными периодическими кристаллами (дополнительно 1-2 бита на 5-10 атомов), хотя другого отличия от обычных кристалоов вроде нет (энтропия приблизительно такая же). Опять же аморфные вещества могут иметь удельную энтропию такую же как кристаллы, но количество информации для задания состояния намного больше.

Эпрос действительно много пытался убедит, но совсем меня не убедил. То что моя позиция более простая, это явно не аргумент, как и результат голосования. Излишняя сложность тоже зло. Мне очень нравиться стройность идеи, что 2-закон это просто статистика и ничего более, которая становиться легко понятной при рассмотрении фазового пространства. К тому же я не один имею точно такое понимание энтропии, этот подход не моё изобретение.

Насчёт увеличения энтропии и обратимости времен. Говорить, что увеличение энтропию это единственный закон которуй диктует направление времение все равно что говорить что расширение вселенной это единственный закон который показывает направление временей. Рост энтропии это просто длительный процесс который был начат просто низкой энтропией во время Большого Взрыва.


...раз у Вас есть вопросы, я могу ответить. В конце концов, если не Вам, то может кому-нибудь еще будет интересно.

> 1) Принцип что информация не возникает ниоткуда для меня не представляется очевидным. Информация например может генерироваться гамильтониaном, так же как множество Мандельброта генерируется простой формулой или случайные числа генерируются генератором. Примеров много и некоторые весьма интересные и сложные бывают (например, неалгоритмические явления в математике и физике, непериодическое покрытие плоскости, псевдопятимерная симметрия (в кристаллах), т. д.).

В определенном смысле использование теоретической модели вообще не способно породить новой информации: вся информация заложена в уравнениях и начальных условиях, т.е. в самОй формулировке задачи. Формально мы могли бы решить эти уравнения уже в момент времени t = 0, т.е. через секунду мы ничего нового из этой модели не узнаем.

Другое дело - наблюдение. Вот оно может стать источником новой информации о состоянии системы.

> 2) Энтропия макросостояния должа зависить только от этого состояния, а не от того насколько кто-то про состояниё системы знает. А то получиться для одного человека энтропия сосуда з газом одна, а для другого другая.

Если люди говорят о разных моделях, описывающих объект, то, конечно, связанные с ними величины энтропии получатся различными. Что же касается физических моделей, то их прелесть в том, что они практически стандартизованы. Т.е. различные физики, говоря о макросостояниях системы, подразумевают как правило одну и ту же модель объекта. Естественно, что для одной и той же модели получаются одни и те же значения энтропии.

> 3) В состоянии термодинамического равновесия информачия о системе теряется со временем (из-за хаотичности (chaotic, английский термин который я могу не правильно перевести)), а энтропия не растет. У меня есть подозрение, что некоторые люди путают закон увеличения энтропии с нормалым поведением хаотической системы.

Состояние термодинамического равновесия - это по определению такое макросостояние, в котором вся информация, которая в рамках рассматриваемой модели воообще может быть утрачена, уже утрачена. Т.е. терять больше нечего, энтропии расти дальше некуда. Ничего со временем больше не меняется - наблюдаем равновесие.

> 4) Опять же кристаллы. Kогда тело кристаллизуется, то информация необходимая для его описания резко падает по сравнением с жидким состоянием. Хотя энтропия тоже падает, но мне как не кажеться что настолько же. Тут же можно привести кристаллы с пятимерной симметрией, для описания которых необходимо огромнейшее количество информации, по сравнению с обычными периодическими кристаллами (дополнительно 1-2 бита на 5-10 атомов), хотя другого отличия от обычных кристалоов вроде нет (энтропия приблизительно такая же). Опять же аморфные вещества могут иметь удельную энтропию такую же как кристаллы, но количество информации для задания состояния намного больше.

Когда в рамках модели появляется информация о факте кристаллизации, это означает увеличение информации о состоянии системы: теперь мы с хорошей точностью знаем положение каждой молекулы, чего раньше не знали. Это, естественно, связано с уменьшением энтропии.

> Мне очень нравиться стройность идеи, что 2-закон это просто статистика и ничего более, которая становиться легко понятной при рассмотрении фазового пространства.

Фраза может и красивая, но смысл ее не определен. Статистика - это математическая дисциплина, которая позволяет по выборкам значений неких случайных величин получить оценки неких параметров распределений. Какое это может иметь отношение ко второму началу, мне не вполне ясно.

> Насчёт увеличения энтропии и обратимости времен. Говорить, что увеличение энтропию это единственный закон которуй диктует направление времение все равно что говорить что расширение вселенной это единственный закон который показывает направление временей. Рост энтропии это просто длительный процесс который был начат просто низкой энтропией во время Большого Взрыва.

Это тоже непонятно. Ну, допустим, что-то как-то "начато". Почему продолжается-то, по инерции что ли?

Я ранее писал, откуда возникает "термодинамическая стрела времени". К расширению Вселенной или другим обратимым процессам это не имеет отношения. Это просто математика: обратимым является такой процесс, для которого можно написать уравнение, которое будет его описывать в обратном порядке по времени. Для вероятностных описаний состояний системы в общем случае такого уравнения написать нельзя.


У меня сложилось впечатление что Вы и unabashed просто по разному определяете понятие энтропии - Вы говорите о "реальной" энтропии, а он об "энтропии состояния". Вот я и хотел бы понять эти различия. Поэтому вопросы к eprosu.

(1) сосуд объемом V с N молекулами и (2) сосуд с теми же N и удвоенным объемом, но все молекулы занимают пол сосуда (прежний объем). Энтропии равны?

Скорее всего да по любому определению. Тогда можем ли мы приписать некую вероятность этому последнему состоянию - вероятность реализации в данном сосуде? Считаете ли вы, что если ждать достаточно долго... Если нет - почему?

Пока все.


> У меня сложилось впечатление что Вы и unabashed просто по разному определяете понятие энтропии - Вы говорите о "реальной" энтропии, а он об "энтропии состояния". Вот я и хотел бы понять эти различия. Поэтому вопросы к eprosu.

Если речь идет о макросостоянии, которое определяется распределением вероятностей по возможным микросостояниям, то я согласен с термином "энтропия состояния". Микросостояние, конечно, энтропией не описывается.

> (1) сосуд объемом V с N молекулами и (2) сосуд с теми же N и удвоенным объемом, но все молекулы занимают пол сосуда (прежний объем). Энтропии равны?

Хочу заметить, что это не вполне корректное определение макросостояний. Но если подразумевается, что "молекулы равномерно распределены по занимаемому ими объему", то вопросов нет.

Ответить на Ваш вопрос можно только если знать, с какой максимальной точностью определяются положения молекул в рамках рассматриваемой физической модели. Если точность определяется в конкретных единицах длины, скажем, 10-10см. (а обычно так и бывает), то энтропии для этих двух случаев равны.

Но если использована модель, в рамках которой максимальная точность определения положения молекулы составляет фиксированную долю объема сосуда (бывают и такие нетривиальные модели), то энтропия для второго случая меньше.

> Скорее всего да по любому определению. Тогда можем ли мы приписать некую вероятность этому последнему состоянию - вероятность реализации в данном сосуде? Считаете ли вы, что если ждать достаточно долго... Если нет - почему?

Ждать бесполезно :-) Потому что даже если молекулы "на самом деле" соберутся в одной половинке сосуда, мы этого кратковременного события просто не заметим. Нужно не ждать, а очень пристально наблюдать. А если у нас есть инструменты для "пристального наблюдения", т.е. такие, с помощью которых можно с огромной точностью определить положение каждой молекулы, то результатом такого наблюдения автоматически станет макросостояние с очень низкой энтропией, независимо от того, где конкретно находится каждая молекула. Но уже через доли секунды эта информация будет утрачена и макросостояние "вскоре после наблюдения" уже будет иметь большую энтропию.

P.S. Слышали что нибудь о приборах, с помощью которых можно зафиксировать имевшую место в течение наносекунды абсолютную пустоту в одной из половинок сосуда?


Oк. Не совсем то что я ожидал но давайте тогда подробней

> Если речь идет о макросостоянии, которое определяется распределением вероятностей по возможным микросостояниям, то я согласен с термином "энтропия состояния". Микросостояние, конечно, энтропией не описывается.

вопросов нет

> > (1) сосуд объемом V с N молекулами и (2) сосуд с теми же N и удвоенным объемом, но все молекулы занимают пол сосуда (прежний объем). Энтропии равны?

> Хочу заметить, что это не вполне корректное определение макросостояний. Но если подразумевается, что "молекулы равномерно распределены по занимаемому ими объему", то вопросов нет.

Нет. Я как раз и имел ввиду что данное макросостояние определяется словами "все молекулы находятся в одной половине сосуда". Соответственно точность с которой мы знаем положение каждой равна размеру сосуда, если хотите.

> Ответить на Ваш вопрос можно только если знать, с какой максимальной точностью определяются положения молекул в рамках рассматриваемой физической модели. Если точность определяется в конкретных единицах длины, скажем, 10-10 см. (а обычно так и бывает), то энтропии для этих двух случаев равны.

т.е. другими словами утверждается что в "классике", где нет принципиального предела точности, понятие энтропии не существует? Ваш путь в фазовом пространстве описывается не точно а вероятно? - это я уточняю, надо подумать как сформулировать вопрос.

> Но если использована модель, в рамках которой максимальная точность определения положения молекулы составляет фиксированную долю объема сосуда (бывают и такие нетривиальные модели), то энтропия для второго случая меньше.

И что, абсолютные энтропии будут разные а разности при их изменении равны?
Мы можем остановится на одной модели которая определяется Гейзенбергом?

> Ждать бесполезно :-) Потому что даже если молекулы "на самом деле" соберутся в одной половинке сосуда, мы этого кратковременного события просто не заметим. Нужно не ждать, а очень пристально наблюдать. А если у нас есть инструменты для "пристального наблюдения", т.е. такие, с помощью которых можно с огромной точностью определить положение каждой молекулы, то результатом такого наблюдения автоматически станет макросостояние с очень низкой энтропией, независимо от того, где конкретно находится каждая молекула. Но уже через доли секунды эта информация будет утрачена и макросостояние "вскоре после наблюдения" уже будет иметь большую энтропию.

> P.S. Слышали что нибудь о приборах, с помощью которых можно зафиксировать имевшую место в течение наносекунды абсолютную пустоту в одной из половинок сосуда?

Не помню насчет слышал ли, но давайте переформулируем вопрос в экпериментальном виде. Добавим перегородку, которую время от времени будем закрывать (конечно за разумное время, большее чем изначально понадобилось газу из одной половины заполнить весь объем). Тогда в закрытом состоянии я не вижу проблем "зафиксировать пустоту". Хоть ето и другая система, суть по-моему не изменилась. Вопрос: Так случиться ли в конце концов поймать пустоту? Напоминаю, время не ограничено.


> Но если использована модель, в рамках которой максимальная точность определения положения молекулы составляет фиксированную долю объема сосуда (бывают и такие нетривиальные модели), то энтропия для второго случая меньше.

хоть это и не имеет прямого отношения к тому что я хотел выяснить, все же вопрос: что же это за модели такие - в них энтропия не является суммой энтропий подсистем?


> В определенном смысле использование теоретической модели вообще не способно породить новой информации: вся информация заложена в уравнениях и начальных условиях, т.е. в самОй формулировке задачи. Формально мы могли бы решить эти уравнения уже в момент времени t = 0, т.е. через секунду мы ничего нового из этой модели не узнаем.

Возможно. Но часто мы не можем сказать порождена ли информация которую мы имеем каким то более простым законом или нет. Например последовательность простых чисел вроде бы содержит бесконечную информацию, но если вдруг найдут формулу простых чисел (как кто-то уже почти сделал на форуме - 1.12*ln(n)), то ситуация резко измениться. В этом загвоздка. Поэтому утверждения что информация не может возникнуть/исчезнуть для меня выглядят подозрительно.

> > Насчёт увеличения энтропии и обратимости времен. Говорить, что увеличение энтропию это единственный закон которуй диктует направление времение все равно что говорить что расширение вселенной это единственный закон который показывает направление временей. Рост энтропии это просто длительный процесс который был начат просто низкой энтропией во время Большого Взрыва.

> Это тоже непонятно. Ну, допустим, что-то как-то "начато". Почему продолжается-то, по инерции что ли?

> Я ранее писал, откуда возникает "термодинамическая стрела времени". К расширению Вселенной или другим обратимым процессам это не имеет отношения. Это просто математика: обратимым является такой процесс, для которого можно написать уравнение, которое будет его описывать в обратном порядке по времени. Для вероятностных описаний состояний системы в общем случае такого уравнения написать нельзя.

Закон увеличения энтропии это закон о переходе в более вероятное состояние. Система будет все равно переходить в более вероятное состояние даже если обратить время. Правда есть вероятность, что это не всегда верно, но эта вероятность ничтожна (надеюсть тут понятно что я имею в виду, так как я об этом уже писал). Поэтому этот закон не определяет направление времени. Это просто следствие того что система развивается.

Я наконец прочитал статью которая породила этот диалог. В ней была сделана попытка экспериментально проверить флуктуационную теорему доказанную в 1993 году. В подробности я не вчитывался, но статья выглядит вполне прилично. Флуктуационная теорема (грубо говоря) утверждает, что вероятность того что энтропия системы увеличиться на величину А в exp(А) раз больше того, что энтропия системы уменьшиться на величину А. Простая и качественнай связь снтропии с вероятностью. До этого я был уверен, что для получения этой вероятности надо знать уравнения эволюции системы - оказывается не надо (их влияние похоже сокращается когда считают функцию рапсределения по состояниям).

Так же google выдаейт много ссылок по этой теореме и очень похоже, что мои сообщения по теме энтропии полностью согласуются с текущей научной точкой зрения.


> Нет. Я как раз и имел ввиду что данное макросостояние определяется словами "все молекулы находятся в одной половине сосуда". Соответственно точность с которой мы знаем положение каждой равна размеру сосуда, если хотите.

Так это, в общем-то и подразумевает равномерное распределение. Если Вам задают вопрос: "Укажите координаты молекулы", а Вы отвечаете: "Где-то в левой половине сосуда", то можно считать, что Вы сформулировали ответ в виде распределения вероятностей p(x), равномерном по x, принадлежащим левой половине. Т.е. p(x) = 1/(2V) для левой половины и p(x) = 0 для правой (V - объем сосуда).

> т.е. другими словами утверждается что в "классике", где нет принципиального предела точности, понятие энтропии не существует? Ваш путь в фазовом пространстве описывается не точно а вероятно? - это я уточняю, надо подумать как сформулировать вопрос.

Не уверен, что Вы подразумеваете под "классикой", но если микросостояния составляют непрерывный континуум и максимальная точность определения параметров не задана, то энтропия определяется с точностью до константы (т.е. не задана точка отсчета). По-моему, это в точности соответствует определению феноменологической термодинамики.

Но как только мы определяем максимальную точность, мы тут же получаем точку отсчета для энтропии. Например, если мы определим единицу для измерения фазового объема, а потом зададим состояние, известное с точностью до этой единицы, то мы получим нулевую энтропию. Если попытаемся задавать состояние с точностью до дробных единиц, будем получать отрицательные энтропии, что некорректно: нужно просто признать увеличение максимальной точности и соответствующее смещение точки отсчета энтропии.

> > Но если использована модель, в рамках которой максимальная точность определения положения молекулы составляет фиксированную долю объема сосуда (бывают и такие нетривиальные модели), то энтропия для второго случая меньше.

> И что, абсолютные энтропии будут разные а разности при их изменении равны?
> Мы можем остановится на одной модели которая определяется Гейзенбергом?

Не понял о чем Вы здесь. Я имел в виду, что если мы, например, по определению положим, что положение частицы может быть известно с точностью до 10-6 от объема сосуда, то как мы не меняй объем сосуда, величина энтропии в такой модели не изменится. Но эта модель для физики нетипична.

> ...давайте переформулируем вопрос в экпериментальном виде. Добавим перегородку, которую время от времени будем закрывать (конечно за разумное время, большее чем изначально понадобилось газу из одной половины заполнить весь объем). Тогда в закрытом состоянии я не вижу проблем "зафиксировать пустоту". Хоть ето и другая система, суть по-моему не изменилась. Вопрос: Так случиться ли в конце концов поймать пустоту? Напоминаю, время не ограничено.

А почему бы и нет? Наблюдение, как я уже писал, может снижать энтропию. Кстати, если мы получим, что плотности газа слева и справа равны с большой точностью, энтропия такого состояния тоже будет ниже, чем энтропия состояния, для которого известна только средняя плотность в сосуде (т.е. без перегородки). Но в этом случае, конечно, разница не столь существенна.


> хоть это и не имеет прямого отношения к тому что я хотел выяснить, все же вопрос: что же это за модели такие - в них энтропия не является суммой энтропий подсистем?

В рамках любой модели энтропия системы будет суммой энтропий подсистем, поскольку множество состояний системы является прямым произведением множеств состояний подсистем.


> > Я ранее писал, откуда возникает "термодинамическая стрела времени". К расширению Вселенной или другим обратимым процессам это не имеет отношения. Это просто математика: обратимым является такой процесс, для которого можно написать уравнение, которое будет его описывать в обратном порядке по времени. Для вероятностных описаний состояний системы в общем случае такого уравнения написать нельзя.

> Закон увеличения энтропии это закон о переходе в более вероятное состояние. Система будет все равно переходить в более вероятное состояние даже если обратить время.

Эти слова могли бы что-нибудь значить, если бы за ними стоял какой-нибудь формализм. А так они звучат как простая тавтология: "состояние, в которое система наверняка перейдет, будем считать более вероятным; будем считать, что система наверняка переходит в более вероятное состояние".

Смысл-то в чем? Вот есть атом водорода в смешанном состоянии: |ψ1|2 = 0.01, |ψ2|2 = 0.99, причем энергия состояния ψ1 ниже. В какое состояние перейдет эта система? Естественно, что в отсутствие внешних воздействий она перейдет в состояние с более низкой энергией, причем довольно быстро. Вас не смущает, что квадрат модуля волновой функции для этого состояния, который и означает вероятность, всего 0.01, что гораздо меньше, чем 0.99?

А в необратимости (в общем случае) вероятностного описания процессов есть точный математический смысл (см. выше). И энтропия связана именно с вероятностными описаниями состояний системы.

> Правда есть вероятность, что это не всегда верно, но эта вероятность ничтожна (надеюсть тут понятно что я имею в виду, так как я об этом уже писал). Поэтому этот закон не определяет направление времени. Это просто следствие того что система развивается.

Без формализма у нас получается разговор, похожий на рассуждение о том "какова вероятность того, что вероятность выпадения монеты орлом равна 1/3". Что такое "вероятность того, что вероятность равна..."? Она где-нибудь определена? Что такое "вероятность перехода системы в состояние с такой-то энтропией"? Она где-нибудь определена?

> Я наконец прочитал статью которая породила этот диалог. В ней была сделана попытка экспериментально проверить флуктуационную теорему доказанную в 1993 году.

Флуктуация - это отклонение оценки (обычно - экспериментальной оценки) величины от прогнозируемого среднего значения. Возьмем пример: Вероятность выпадения монеты орлом равна 1/2 (мне это просто известно по условию задачи). Но я шесть раз выбросил монету и получил только два выпадения орла. Оценка вероятности = 2/6 = 1/3. Не совпадает с известным мне значением. Это и есть флуктуация в самом чистом виде.

Точно в том же смысле можете рассмотреть сосуд с газом и измеритель давления (мембрану, закрывающую отверстие в сосуде, и присоединенный к ней динамометр, который усредняет силу, действующую на мембрану за промежуток времени Δt). Если Вы будете считывать последовательные показания динамометра, то получите разброс показаний около среднего значения. Потому что иногда в мембрану ударится больше быстрых молекул, иногда - меньше и более медленных. И это тоже флуктуация.

Когда мы говорим о флуктуации энтропии, нужно четко понимать, о чем идет речь. Посмотрите на приведенное мной ранее определение энтропии и увидите, что она является математическим ожиданием, т.е. средним. Поэтому разговор о флуктуации энтропии без четкого понимания смысла понятий может свестись к разговору об отклонении "среднего от среднего". Это так же странно, как говорить об отклонении вероятности выпадения орла от вероятности выпадения орла.

Но говорить о флуктуации экспериментальной оценки энтропии можно. Например, если мы измеряем величину δQ/T, где T - температура тела, а δQ - количество тепла, переданное им холодильнику при контакте, то мы можем получить разброс значений, связанный и с разбросом измерения T, и с разбросом измерения δQ. Причем речь идет не просто об инструментальной погрешности, а о том, что эти величины принципиально нельзя измерить с абсолютной точностью за конечное время (так же, как нельзя было точно измерить давление в примере с газом).

Естественно, в результате мы получим флуктуации оценки энтропии. Причем если мы измеряем одновременно и энтропию холодильника, то вполне можем получить, что оценка суммарной величины энтропии иногда может убывать.

> В подробности я не вчитывался, но статья выглядит вполне прилично. Флуктуационная теорема (грубо говоря) утверждает, что вероятность того что энтропия системы увеличиться на величину А в exp(А) раз больше того, что энтропия системы уменьшиться на величину А. Простая и качественнай связь снтропии с вероятностью. До этого я был уверен, что для получения этой вероятности надо знать уравнения эволюции системы - оказывается не надо (их влияние похоже сокращается когда считают функцию рапсределения по состояниям).

Вероятность получения определенной оценки величины можно ввести. Например, я вполне могу подсчитать, какова вероятность выпадения двух орлов в шести бросаниях: это чистая теория вероятности. Таким образом я получу вероятность получения оценки "1/3" для вероятности выпадения орла в статистике из шести испытаний.

Совершенно аналогичным образом можно рассчитать вероятность получения оценки для изменения энтропии системы. Вот примерно об этом и есть эта теорема.


> В рамках любой модели энтропия системы будет суммой энтропий подсистем, поскольку множество состояний системы является прямым произведением множеств состояний подсистем.

Понятно я это и подразумевал когда спрашивал. Могли бы тогда ответить сразу и на следующий вопрос - выходит энтропия пустой половины не ноль? или именно это Вы и имели ввиду называя модели "нетривиальными"?

Ага, отвечать не надо, прочитал про "нетипичный для физики" пример с привязкой к объему. Я пожалуй имел ввиду "типичную" модель, которая не зависит от системы.


Несколько вопросов "по теме" что б прояснить для себя суть второго начала : )
Беру Ваши фразы в качестве привязки.

> Отсюда и забавные фразы типа: "для неравновесной замкнутой системы наиболее вероятным в каждый последующий момент времени будет состояние с бОльшей энтропией".

По-моему это семантическая проблема. Предполагая что данная фраза истинна я бы заключил что автор (не уверен насчет австралийского оригинала) под "энтропией" здесь имеет ввиду именно "термодинамическую энтропию". Иначе это конечно было бы "масло маслянное". Т.е. вся фраза является просто формулировкой второго закона точно так же как и формула на могиле Больцмана.

> Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.

Здесь Вы просто отождествляете понятие "макросостояние" с понятием "равновесное состояние", в то время как большинство Ваших оппонентов считают последнее только одним из возможных макросостояний системы.

> О чем вполне разумно говорить, так это о том, что через некоторое время t энтропия системы увеличится. Кстати, она есть не логарифм числа микросостояний (что верно только для равновесного состояния), а некая функция от распределения вероятностей по микросостояниям системы, а именно:

Я не считаю что это "верно только для равновесного состояния". Для того что бы вероятности различных микросостояний были разными необходимо наличие внешних условий (силовых полей). Если этим можно пренебречь, то описывая переход неравновесновесной системы к равновесной можно считать все микросостояния равновероятными, вернее p(i) = V(i)/V.

> Микросостояние - это всего лишь точное описание одного из состояний, в которых может находиться система. В терминах описания "где находятся молекулы газа" микросостояние - это точные координаты всех молекул. Запишите их в виде вектора бо-ольшой размерности. Множество всех возможных микросостояний - это область в пространстве таких векторов. Естественно, в рассматриваемом случае эта область определяется сосудом (хотя речь идет не об области трехмерного пространства!).

Ага, это и есть начало разногласий. Есть мнение (мне казалось большинства), что микросостояниям можно приписать вероятность именно потому что есть предельная точность измерения (скажем определения координат и импульсов). В том же Сивухине, например. Т.е. в случае с газом в сосуде микросостояние - это не точка, а небольшой объем в фазовом пространстве. Конечно добавив к Вашему определению микросостояния распределение вероятностей из Вашего определения МАКРОсостояния можно сделать их эквивалентными.

> МАКРОсостояние - это распределение вероятностей на множестве возможных микросостояний. В этом смысле я и говорю, что оно "реализуется" всеми возможными микросостояниями. Конечно, некоторые вероятности могут быть нулевыми (например, если известно, что в правой половине сосуда молекул нет, соответствующим векторам, определяющим микросостояния, следует приписать нулевые вероятности). Но это не означает, что этих микросостояний не существует.

С определением МАКРОсостояния хуже. В этом похоже разница в определении энтропии. Я все же не понял, не смотря на то что прочел уже и текст ниже, (1) считаете ли Вы возможным выделить некое макросостояние как подмножество основного (назовем его так) равновесного состояния и (2) возможно ли определить его энтропию как его объм (с учетом истории о равновероятности микросостояний конечно)?

> Ну Вы здесь и насочиняли альтернативной термодинамики. В фазовом пространстве нет никаких "областей, соответствующих малой энтропии," или "областей, соответствующих большой энтропии," - все области одинаковы. Энтропия определяется не местоположением области в фазовом пространстве, а только ее объемом. Сами же написали - логарифм объема и ничего больше.

Что значит нет? - как пожелаем так и сделаем. Вы же сами говорите об информации (хоть я и признаюсь что не знаю что это такое). Нарисовали ЛЮБУЮ область (задав соответствующую точночть или объем инфо) - это и есть макросостояние. То что система очень скоро из нее выйдет и вероятно больше не вернется - ето и есть закон увеличения энтропии по unabashedu.

> Единственный вывод, который я сделал из нижеследующего текста, это то, что Вы считаете, будто фазовое пространство изначально поделено на некие "области" соответствующие макросостояниям. На самом деле, конечно, это совершенно не так. Можно выбрать абсолютно любую область, любой формы и размера и даже состоящую из разрозненных кусочков, и ей будет соответствовать макросостояние.

Вот славно, о чем же тогда спор? .... (но тут я понял, перечитав, что есть о чем поспорить)

> Если Вам неизвестны законы механики, по которым движутся частицы, Вы ничего не можете сказать о том, каково будет состояние системы через секунду.

Что значит "ничего". Бросая кубик, даже не смотря на то что законы механики Вам не известны, Вы можете сказать что выпадение шестерки будет значительно менее вероятным чем не шестерки.

> Но если Вам известны законы механики, то из точного знания их положений и скоростей теоретически Вы можете рассчитать их точные скорости и положения через секунду. Никакого отношения к вероятностям этот расчет иметь не будет. И поскольку "фазовые объемы" и сейчас и через секунду равны нулю (распределения вероятностей по возможным состояниям системы имеют вид d-функций), энтропия как была, так и останется нулевой.

Это интересно. Как эти дельта-функции согласуются с точным знанием координат молекул. Т.е. они у вас точные но дискретные?

> Общий случай - это не баловство. В термодинамике иногда рассматривают распределения не только по точкам фазового пространства, а, например, по энергетическим состояниям. А их в большинстве случаев никак нельзя считать равномерными.

А, тогда понятно откуда взялись дельта-функции

> В этом и состоит единственный смысл второго начала: информация о состоянии системы не возникает из ниоткуда, она может только утрачиваться: неопределенность предсказания со временем становится больше, т.е. энтропия описания состояния системы (которое называется "макросостоянием") возрастает.

А как быть с флуктуациями? Здесь надо сперва определить понятие информации конечно. Тема интересная, но я сейчас не готов ее обсуждать. Но за определение буду благодарен.

> Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается. Математически это связано с тем, что распределение по будущим состояниям вычисляется как свертка распределения по предыдущим состояниям с распределением по переходам. А эта операция необратима: зная ее результат и распределение по переходам, нельзя однозначно рассчитать исходное распределение.

А какая природе разница умеете Вы решать уравнение свертки или нет? Это Вы о принципе причинности? - тоже интересный вопрос :) Вы считаете это свойством природы а не удобным для нас математическим приближением?

> Модели, описывающие состояние физических объектов, подчиняются второму началу. Это - математический вывод, применимый к описаниям практически любых объектов. Флуктуаций это не отменяет, но к состоятельности формулировки второго начала это не имеет никакого отношения.

Все же что вы считаете вторым началом: математический вывод или математический вывод + область его применимости? Было бы полезно услышать Вашу полную (максимально строгую) формулировку без привлечения теории информации. Флуктуации к состоятельности 2-го начала отношения не имеют, я согласен. Но к состоятельности формулировки вполне -- чему доказательством данная дискуссия. Вы саму статью читали, кстати, из-за которой сыр-бор то? Я еще не успел.


Ох, вижу - вопросов все так же много остается. Ну да ладно, попробуем еще один круг.

> > Отсюда и забавные фразы типа: "для неравновесной замкнутой системы наиболее вероятным в каждый последующий момент времени будет состояние с бОльшей энтропией".

> По-моему это семантическая проблема. Предполагая что данная фраза истинна я бы заключил что автор (не уверен насчет австралийского оригинала) под "энтропией" здесь имеет ввиду именно "термодинамическую энтропию". Иначе это конечно было бы "масло маслянное". Т.е. вся фраза является просто формулировкой второго закона точно так же как и формула на могиле Больцмана.

Дело не в "термодинамичности" энтропии: энтропия в термодинамике - это то же самое понятие, что и в теории информации, только примененное к физической модели объекта.

На самом деле проблема в том, что речь идет о вероятностях макросостояний, которые нигде не определены. Вероятность - строгое математическое понятие. Нельзя им так разбрасываться.

> > Микросостояния, о вероятности которых только и имеет смысл говорить, энтропией не обладают! Энтропия - характеристика макросостояния. А макросостояние не "вероятно" - оно просто есть (наблюдается). Причудливо здесь смешали мух с котлетами.

> Здесь Вы просто отождествляете понятие "макросостояние" с понятием "равновесное состояние", в то время как большинство Ваших оппонентов считают последнее только одним из возможных макросостояний системы.

Ну откуда Вы это взяли? Я никогда не утверждал, что макросостояния бывают только равновесными. Равновесное состояние - это частный случай. Давайте вернемся с смыслу понятий: микросостояние - это точное описание состояния системы, точка в пространстве состояний; макросостояние - это распределение вероятностей, заданное в пространстве состояний (т.е. на всех микросостояниях); равновесное состояние - это равномерное распределение вероятностей по микросостояниям.

Вернитесь к моей фразе. Смысл ее прост: энтропия - характиристика макросостояния (а не микросостояния), вероятность - характеристика микросостояния (а не макросостояния). Поэтому я и говорю о том, что автор смешивает понятия. Если он хочет говорить о вероятностях макросостояний, то нужно сначала дать определение этому новому понятию, поскольку в термодинамической модели вероятности приписаны только микросостояниям.

> > О чем вполне разумно говорить, так это о том, что через некоторое время t энтропия системы увеличится. Кстати, она есть не логарифм числа микросостояний (что верно только для равновесного состояния), а некая функция от распределения вероятностей по микросостояниям системы, а именно:

> Я не считаю что это "верно только для равновесного состояния". Для того что бы вероятности различных микросостояний были разными необходимо наличие внешних условий (силовых полей). Если этим можно пренебречь, то описывая переход неравновесновесной системы к равновесной можно считать все микросостояния равновероятными, вернее p(i) = V(i)/V.

Если все микросостояния равновероятны, то это и есть равновесное макросостояние. Если же не все, а, например, только для половины сосуда, то это уже не равномерное распределение, следовательно - неравновесное макросостояние.

> > Микросостояние - это всего лишь точное описание одного из состояний, в которых может находиться система. В терминах описания "где находятся молекулы газа" микросостояние - это точные координаты всех молекул. Запишите их в виде вектора бо-ольшой размерности. Множество всех возможных микросостояний - это область в пространстве таких векторов. Естественно, в рассматриваемом случае эта область определяется сосудом (хотя речь идет не об области трехмерного пространства!).

> Ага, это и есть начало разногласий. Есть мнение (мне казалось большинства), что микросостояниям можно приписать вероятность именно потому что есть предельная точность измерения (скажем определения координат и импульсов). В том же Сивухине, например. Т.е. в случае с газом в сосуде микросостояние - это не точка, а небольшой объем в фазовом пространстве. Конечно добавив к Вашему определению микросостояния распределение вероятностей из Вашего определения МАКРОсостояния можно сделать их эквивалентными.

Точность здесь не рассматривается, потому что она влияет только на точку отсчета энтропии. Если рассмотреть конечную точность, то непрерывный континуум микросостояний автоматически вырождается в дискретное множество. Остальное остается тем же самым: макросостояние по-прежнему описывается распределением вероятностей по микросостояниям.

> > МАКРОсостояние - это распределение вероятностей на множестве возможных микросостояний. В этом смысле я и говорю, что оно "реализуется" всеми возможными микросостояниями. Конечно, некоторые вероятности могут быть нулевыми (например, если известно, что в правой половине сосуда молекул нет, соответствующим векторам, определяющим микросостояния, следует приписать нулевые вероятности). Но это не означает, что этих микросостояний не существует.

> С определением МАКРОсостояния хуже. В этом похоже разница в определении энтропии. Я все же не понял, не смотря на то что прочел уже и текст ниже, (1) считаете ли Вы возможным выделить некое макросостояние как подмножество основного (назовем его так) равновесного состояния и (2) возможно ли определить его энтропию как его объм (с учетом истории о равновероятности микросостояний конечно)?

(1) Что-то Вы здесь непонятное спросили. Равновесное состояние - это отдельный элемент множества макросостояний.

(2)Энтропия макросостояния определяется как логарифм объема области микросостояний только в том случае, если это макросостояние описывается распределением вероятностей, равномерным по данной области и нулевым в других областях.

> > Ну Вы здесь и насочиняли альтернативной термодинамики. В фазовом пространстве нет никаких "областей, соответствующих малой энтропии," или "областей, соответствующих большой энтропии," - все области одинаковы. Энтропия определяется не местоположением области в фазовом пространстве, а только ее объемом. Сами же написали - логарифм объема и ничего больше.

> Что значит нет? - как пожелаем так и сделаем. Вы же сами говорите об информации (хоть я и признаюсь что не знаю что это такое). Нарисовали ЛЮБУЮ область (задав соответствующую точночть или объем инфо) - это и есть макросостояние. То что система очень скоро из нее выйдет и вероятно больше не вернется - ето и есть закон увеличения энтропии по unabashedu.

Что значит "вероятно"? Это значит, что "нам так кажется"? В строгой теории нельзя оперировать такими понятиями. Если мы хотим говорить о вероятностях макросостояний, надо дать им определение.

Как я уже говорил, макросостояние - само по себе является распределением вероятностей. Поэтому говорить о "вероятности получить распределение" так же странно, как говорить о "вероятности того, что вероятность выпадения монеты орлом равна 1/3".

> > Если Вам неизвестны законы механики, по которым движутся частицы, Вы ничего не можете сказать о том, каково будет состояние системы через секунду.

> Что значит "ничего". Бросая кубик, даже не смотря на то что законы механики Вам не известны, Вы можете сказать что выпадение шестерки будет значительно менее вероятным чем не шестерки.

В этой фразе речь шла о микросостояниях, поэтому уточняю: ничего нельзя сказать по поводу предпочтительности одних микросостояний по сравнению с другими.

С игральной костью то же самое: ничего нельзя сказать по поводу предпочтительности выпадения шестерки по сравнению с любой другой цифрой.

> > Но если Вам известны законы механики, то из точного знания их положений и скоростей теоретически Вы можете рассчитать их точные скорости и положения через секунду. Никакого отношения к вероятностям этот расчет иметь не будет. И поскольку "фазовые объемы" и сейчас и через секунду равны нулю (распределения вероятностей по возможным состояниям системы имеют вид d-функций), энтропия как была, так и останется нулевой.

> Это интересно. Как эти дельта-функции согласуются с точным знанием координат молекул. Т.е. они у вас точные но дискретные?

Какие хотите. Если точность описания координат - абсолютная, то плотность вероятности - дельта-функция. Но вообще-то - это предельный случай. Если точность конечная, то имеем дело с дискретным множеством точек, соответствующих микросостояниям. В этом случае вероятность единичная для одной из точек и нулевая - для остальных.

> > Общий случай - это не баловство. В термодинамике иногда рассматривают распределения не только по точкам фазового пространства, а, например, по энергетическим состояниям. А их в большинстве случаев никак нельзя считать равномерными.

> А, тогда понятно откуда взялись дельта-функции

А мне непонятно, почему Вам это понятно именно отсюда. Энергетические уровни тоже могут составлять как непрерывный континуум, так и дискретное множество.

> > В этом и состоит единственный смысл второго начала: информация о состоянии системы не возникает из ниоткуда, она может только утрачиваться: неопределенность предсказания со временем становится больше, т.е. энтропия описания состояния системы (которое называется "макросостоянием") возрастает.

> А как быть с флуктуациями? Здесь надо сперва определить понятие информации конечно. Тема интересная, но я сейчас не готов ее обсуждать. Но за определение буду благодарен.

Я об этом уже писал, хотя может быть и недостаточно подробно или это потерялось в других текстах.

Количество информации о событии измеряется отрицательным логарифмом его вероятности.

Энтропия есть математическое ожидание количества информации, недостающего до точного знания состояния системы. (Точное знание - это когда известно конкретное микросостояние, в котором находится система).

Флуктуация - это отклонение оценки (обычно - экспериментальной оценки) величины от теоретически прогнозируемого значения.

В ответе unabashed по поводу флуктуационной теоремы я писал, что примером оценки вероятности может быть отношение числа выпадений монеты орлом к числу бросаний. И когда эта оценка отклоняется от действительной вероятности, известной нам по условию задачи, то это тоже флуктуация. И можно подсчитать вероятность такой флуктуации.

Оценка энтропии в результате флуктуации тоже может отклоняться от ее действительного значения. Но это не отменяет второго начала.

> > Второе начало - пожалуй единственный физический закон, который строго связан с направлением времени: в обратном времени он не соблюдается. Математически это связано с тем, что распределение по будущим состояниям вычисляется как свертка распределения по предыдущим состояниям с распределением по переходам. А эта операция необратима: зная ее результат и распределение по переходам, нельзя однозначно рассчитать исходное распределение.

> А какая природе разница умеете Вы решать уравнение свертки или нет? Это Вы о принципе причинности? - тоже интересный вопрос :) Вы считаете это свойством природы а не удобным для нас математическим приближением?

А причем здесь "природа"? Что там имеет место быть "в природе" - это еще бабушка надвое сказала, а в теории под названием "термодинамика" имеет место невозможность рассматривать процессы в обратном времени. В других теориях это как правило возможно. Дело тут не в умении или неумении решать уравнения, а в том, что они в принципе не имеют однозначного обратного решения.

О причинности - это конечно очень интересный и обширный вопрос, но лучше его обсудить где-нибудь в другой теме.

> > Модели, описывающие состояние физических объектов, подчиняются второму началу. Это - математический вывод, применимый к описаниям практически любых объектов. Флуктуаций это не отменяет, но к состоятельности формулировки второго начала это не имеет никакого отношения.

> Все же что вы считаете вторым началом: математический вывод или математический вывод + область его применимости? Было бы полезно услышать Вашу полную (максимально строгую) формулировку без привлечения теории информации. Флуктуации к состоятельности 2-го начала отношения не имеют, я согласен. Но к состоятельности формулировки вполне -- чему доказательством данная дискуссия. Вы саму статью читали, кстати, из-за которой сыр-бор то? Я еще не успел.

Естественно, включая область применимости. Например, в процессе наблюдения энтропия может быть снижена. Но этот процесс к области применимости второго начала не относится: как ни странно, она включает только поведение теоретических моделей объектов.

Наиболее полная и наиболее строгая формулировка как раз относится к теории информации. Никуда от этого не деться.


Ох, за ответы спасибо конечно. Возможно эта дискуссия и есть пример потери информации со временем. Я вижу что Вам приходиться повторяться и что неопределенность растет (например про дельта-функции я Вас явно не дочитал), но свет виден. Поэтому я кратко опишу что мне понятно и задам несколько вопросов.

Понятной мне есть точка зрения unabashedа. Назовем ее трактовкой Пенроуза. Ящик с молекулами есть идеальный объект для ее иллюстрации, поэтому заведомо общность сейчас не обсуждается. Итак, микросостояние -- это точка в фазовом пространстве, макросостояние -- это объем в том же пространстве (тут поскольку энергия системы не меняется можно ограничиться только координатами). Слова "все молекулы находятся в одной половине сосуда" однозначно определяют объем в фазовом пространстве, т.е. одно из возможных макросостояний (N 1). Можно выделить и другие состояния с таким же объемом, но поскольку нас интересует вопрос как система будет эволюционировать со временем, необходимо "отформатировать" это пространство -- полностью разбить на макросостояния. Тогда другим состоянием с таким же объемом будет еще только одно состояние "все молекулы в другой половине". Понятно, что объем состояния "только одна молекула справа" будет несравненно больше первого первого, "две молекулы справа" -- еще больше... и так до состояния "справа и слева поровну". При большом колличестве молекул разница (особенно поначалу) этих объемов столь гигантска, что после того как система вышла из первого объема шансов попасть назад практически нет, и т.д. В этом и суть второго начала по Пенроузу. Связывая энтропию с объемом макросостояния получаем наглядную иллюстрацию начала в терминах увеличения энтропии.

Преимущесво этой трактовки именно в наглядности. Что в этой иллюстрации не верно? Точнее могли бы вы сказать что "логарифм объема макросостояния в рассмотренной модели (энтропия unabashedа) это не истинная энтропия а (что ?)"?

Теперь о Вашей точке зрения. Вопрос один. Как я понял Вы утверждаете что истинная энтропия -- это величина которая может только увеличиваться (никаких флуктуаций), но измеряя ее получаем флуктуации измерения истинной энтропии. Да?

Тогда еще в защиту австралийцев. Ответив "да" на предыдущий вопрос Вы имели ввиду замкнутую систему. Но Вы же не будете утверждать что также бессмысленен разговор о флуктуациях истинной энтропии малой части равновесной системы?


> Понятной мне есть точка зрения unabashedа. Назовем ее трактовкой Пенроуза. Ящик с молекулами есть идеальный объект для ее иллюстрации, поэтому заведомо общность сейчас не обсуждается. Итак, микросостояние -- это точка в фазовом пространстве, макросостояние -- это объем в том же пространстве (тут поскольку энергия системы не меняется можно ограничиться только координатами). Слова "все молекулы находятся в одной половине сосуда" однозначно определяют объем в фазовом пространстве, т.е. одно из возможных макросостояний (N 1). Можно выделить и другие состояния с таким же объемом, но поскольку нас интересует вопрос как система будет эволюционировать со временем, необходимо "отформатировать" это пространство -- полностью разбить на макросостояния. Тогда другим состоянием с таким же объемом будет еще только одно состояние "все молекулы в другой половине". Понятно, что объем состояния "только одна молекула справа" будет несравненно больше первого первого, "две молекулы справа" -- еще больше... и так до состояния "справа и слева поровну". При большом колличестве молекул разница (особенно поначалу) этих объемов столь гигантска, что после того как система вышла из первого объема шансов попасть назад практически нет, и т.д. В этом и суть второго начала по Пенроузу. Связывая энтропию с объемом макросостояния получаем наглядную иллюстрацию начала в терминах увеличения энтропии.

> Преимущесво этой трактовки именно в наглядности. Что в этой иллюстрации не верно? Точнее могли бы вы сказать что "логарифм объема макросостояния в рассмотренной модели (энтропия unabashedа) это не истинная энтропия а (что ?)"?

Единственное преимущество этой трактовки - это именно наглядность с точки зрения тех, кто не желает иметь дело с вероятностями. Но в остальном эту трактовку можно охарактеризовать как упрощение до уровня полного безобразия :-) Самый главный ее недостаток: она не описывает все возможные макросостояния, т.е. является неполной.

Давайте подумаем. Пусть у нас есть одна частица в одномерном ящике длиной 1м. Состояние этой системы будем описывать координатой частицы, лежащей в диапазоне от 0 до 1м (импульс частицы пока не рассматриваем). Вы пишете, что можно рассмотреть макросостояния с объемом, соответствующим половине сосуда. Для этого Вы предлагаете "отформатировать", т.е. разбить пространство состояний на зоны данного объема. Допустим, имеем две зоны: (0, 1/2) и (1/2, 1). Теперь что же получается, что макросостояние, когда координата частицы находится в диапазоне (1/4, 3/4) рассматривать нельзя? А ведь оно тоже обладает объемом 1/2м. Так что Ваше "форматирование" - недопустимый прием. Нельзя по своему усмотрению запрещать макросостояния, в которых система может находиться.

Теперь еще одно. Рассмотрим макросостояние, для которого известно, что частица находится в диапазоне координат (0.45, 0.55). Примем теперь в расчет импульс частицы. Пусть нам известно, что скорость частицы лежит в диапазоне (-0.01, +0.01) метров в секунду. Нам нужно ответить, в какое макросостояние система придет через 1 секунду. Очевидно, частица не сможет улететь влево дальше 0.44м и вправо дальше 0.56м. Значит ли это, что объем состояния увеличился в (0.56 - 0.44)/(0.55 - 0.45) = 0.12/0.1 = 1.2 раза? Нет, все не так просто. Дело в том, что микросостояния, лежащие вблизи точек 0.44 и 0.56, будут иметь гораздо меньшую вероятность, чем микросостояния, лежащие вблизи точки 0.5. Микросостояния в пределах рассматриваемого объема перестали быть равновероятными! А значит Ваша упрощенная формула для энтропии (логарифм объема состояния) перестала работать. Но общая формула по-прежнему работает. Нетрудно подсчитать, что плотность вероятности для координаты частицы будет иметь вид трапеции с нижним основанием, лежащим между точками 0.44 и 0.56, и с верхним основанием, лежащим между точками 0.46 и 0.54. (Произошло как бы "размытие границ" прежнего рассматриваемого объема). И для этого распределения можно подсчитать энтропию.

Отсюда вывод: Если Вы будете руководствоваться этой примитивной моделью, в которой макросостояние описывается занимаемой областью фазового пространства, Вы вообще не поймете, в какое макросостояние придет система через секунду, потому что это макросостояние этой моделью не описывается.

> Теперь о Вашей точке зрения. Вопрос один. Как я понял Вы утверждаете что истинная энтропия -- это величина которая может только увеличиваться (никаких флуктуаций), но измеряя ее получаем флуктуации измерения истинной энтропии. Да?

Примерно так. Точно так же, как нельзя одним движением точно измерить вероятность выпадения орла, а можно только получить ее некую статистическую оценку (причем формулы для оценки могут быть разными), так и нельзя одним движением точно измерить энтропию, а можно только получить ее некую экспериментальную оценку, подверженную флуктуациям.

И важно понимать, по какой формуле делается эта оценка, потому что здесь могут быть варианты, хотя среди них и есть общепринятые. Например, для оценки вероятности более-менее общепринятой считается формула k/n (k - число реализаций события в серии из n независимых испытаний). Но, например, оценка (k + 1)/(n + 1) точно так же по закону больших чисел сойдется к вероятности, а значит является абсолютно законной формулой для ее оценки.

> Тогда еще в защиту австралийцев. Ответив "да" на предыдущий вопрос Вы имели ввиду замкнутую систему. Но Вы же не будете утверждать что также бессмысленен разговор о флуктуациях истинной энтропии малой части равновесной системы?

Можно говорить и о незамкнутой системе. Второе начало, естественно, применяется к замкнутым системам, но энтропию можно подсчитать для любой. В равновесном состоянии, конечно, тоже возможны флуктуации оценки энтропии, как для всей системы в целом, так и для любой из ее подсистем. Разговор же о флуктуациях "действительных" значений бессмысленен именно потому, что эти значения определены теоретической моделью. Это не только к энтропии относится. Давление какого-нибудь идеального классического газа тоже однозначно определяется моделью. И говорить можно только о флуктуациях его экспериментальной оценки. Впрочем, вероятности этих флуктуаций можно рассчитать теоретически.


> Единственное преимущество этой трактовки - это именно наглядность с точки зрения тех, кто не желает иметь дело с вероятностями. Но в остальном эту трактовку можно охарактеризовать как упрощение до уровня полного безобразия :-) Самый главный ее недостаток: она не описывает все возможные макросостояния, т.е. является неполной.

С этим я изначально был согласен.

> Давайте подумаем. Пусть у нас есть одна частица в одномерном ящике длиной 1м. Состояние этой системы будем описывать координатой частицы, лежащей в диапазоне от 0 до 1м (импульс частицы пока не рассматриваем). Вы пишете, что можно рассмотреть макросостояния с объемом, соответствующим половине сосуда. Для этого Вы предлагаете "отформатировать", т.е. разбить пространство состояний на зоны данного объема. Допустим, имеем две зоны: (0, 1/2) и (1/2, 1). Теперь что же получается, что макросостояние, когда координата частицы находится в диапазоне (1/4, 3/4) рассматривать нельзя? А ведь оно тоже обладает объемом 1/2м. Так что Ваше "форматирование" - недопустимый прием. Нельзя по своему усмотрению запрещать макросостояния, в которых система может находиться.

Мне не стоило писать "необходимо "отформатировать"". Это просто что б нагдядно понять эволюцию. Объем можно выделить всегда. Разве не ясно. Чем больше мы в это информации вложим тем меньше будет объем :) Но понятно что попасть в этот объем крайне маловероятно.

> Теперь еще одно. Рассмотрим макросостояние, для которого известно, что частица находится в диапазоне координат (0.45, 0.55). Примем теперь в расчет импульс частицы. Пусть нам известно, что скорость частицы лежит в диапазоне (-0.01, +0.01) метров в секунду. Нам нужно ответить, в какое макросостояние система придет через 1 секунду. Очевидно, частица не сможет улететь влево дальше 0.44м и вправо дальше 0.56м. Значит ли это, что объем состояния увеличился в (0.56 - 0.44)/(0.55 - 0.45) = 0.12/0.1 = 1.2 раза? Нет, все не так просто. Дело в том, что микросостояния, лежащие вблизи точек 0.44 и 0.56, будут иметь гораздо меньшую вероятность, чем микросостояния, лежащие вблизи точки 0.5. Микросостояния в пределах рассматриваемого объема перестали быть равновероятными! А значит Ваша упрощенная формула для энтропии (логарифм объема состояния) перестала работать.

Но и Ваша ведь тоже - это ж уже динамика. Или Ваша модель предполагает знание текущего микросостояния?

> Но общая формула по-прежнему работает. Нетрудно подсчитать, что плотность вероятности для координаты частицы будет иметь вид трапеции с нижним основанием, лежащим между точками 0.44 и 0.56, и с верхним основанием, лежащим между точками 0.46 и 0.54. (Произошло как бы "размытие границ" прежнего рассматриваемого объема). И для этого распределения можно подсчитать энтропию.

Этого не понял. Видно поздно уже.

> Примерно так. Точно так же, как нельзя одним движением точно измерить вероятность выпадения орла, а можно только получить ее некую статистическую оценку (причем формулы для оценки могут быть разными), так и нельзя одним движением точно измерить энтропию, а можно только получить ее некую экспериментальную оценку, подверженную флуктуациям.

Почему ж "примерно так"?

> > Тогда еще в защиту австралийцев. Ответив "да" на предыдущий вопрос Вы имели ввиду замкнутую систему. Но Вы же не будете утверждать что также бессмысленен разговор о флуктуациях истинной энтропии малой части равновесной системы?

> Можно говорить и о незамкнутой системе. Второе начало, естественно, применяется к замкнутым системам, но энтропию можно подсчитать для любой. В равновесном состоянии, конечно, тоже возможны флуктуации оценки энтропии, как для всей системы в целом, так и для любой из ее подсистем. Разговор же о флуктуациях "действительных" значений бессмысленен именно потому, что эти значения определены теоретической моделью. Это не только к энтропии относится. Давление какого-нибудь идеального классического газа тоже однозначно определяется моделью. И говорить можно только о флуктуациях его экспериментальной оценки. Впрочем, вероятности этих флуктуаций можно рассчитать теоретически.

Т.е. Вы все же считаете что и в незамкнутой равновесной системе бесмысленно говорить о флуктуации "действительной" энтропии? А как быть с "действительными" U, N...?

Еще вопрос. О какой энтропии незамкнутой равновесной системы говорит Ландау в Статах (пар.114. Флуктуации основных термодинамических величин)?

Если об оценочной, то и другой вопрос: с чего изначально Вы взяли что речь в статье идет о "действительной" энтропии?


> Но понятно что попасть в этот объем крайне маловероятно.

А как Вы будете рассчитывать эту вероятность? Из предположения, что Господь Бог наугад кидает дротиком в фазовое пространство, а потом говорит: "Куда попал, там и будет следующее микросостояние. Но физикам мы этого не скажем, а скажем только, попало оно в загаданное ими макросостояние или нет." Так? :-)

Если у меня есть молекула, летящая с определенной скоростью точно в правый верхний угол ящика, то я могу точно сказать, что через определенное время она окажется в малой окрестности этого угла. Так что вероятность "попасть в этот объем" оказывается очень большой, хотя сам объем и очень маленький.

> > Теперь еще одно. Рассмотрим макросостояние, для которого известно, что частица находится в диапазоне координат (0.45, 0.55). Примем теперь в расчет импульс частицы. Пусть нам известно, что скорость частицы лежит в диапазоне (-0.01, +0.01) метров в секунду. Нам нужно ответить, в какое макросостояние система придет через 1 секунду. Очевидно, частица не сможет улететь влево дальше 0.44м и вправо дальше 0.56м. Значит ли это, что объем состояния увеличился в (0.56 - 0.44)/(0.55 - 0.45) = 0.12/0.1 = 1.2 раза? Нет, все не так просто. Дело в том, что микросостояния, лежащие вблизи точек 0.44 и 0.56, будут иметь гораздо меньшую вероятность, чем микросостояния, лежащие вблизи точки 0.5. Микросостояния в пределах рассматриваемого объема перестали быть равновероятными! А значит Ваша упрощенная формула для энтропии (логарифм объема состояния) перестала работать.

> Но и Ваша ведь тоже - это ж уже динамика. Или Ваша модель предполагает знание текущего микросостояния?

Не знаю даже, что можно добавить к написанному выше. Давайте прочитаем внимательнее. Где Вы видите знание текущего микросостояния? Все, что мы знаем на момент времени t = 0, я описал. Как видите, ни координату, ни скорость мы не знаем с абсолютной точностью: только диапазон. Еще подразумевается, что мы знаем уравнения механики, конкретнее - уравнение движения свободной частицы: x(t) = x(0) + v*t. Как Вы думаете, можем ли мы на основе этого знания сказать что-нибудь о состоянии системы в момент времени t = 1?

Конечно, это динамика. А о чем же еще второе начало, как не об изменении энтропии со временем? Но энтропия при этом рассчитывается для каждого фиксированного момента времени. Вот я и спрашиваю: как подсчитать энтропию в момент t = 1? Если подсчитаем, естественно, сравним с энтропией в момент t = 0.

> > Но общая формула по-прежнему работает. Нетрудно подсчитать, что плотность вероятности для координаты частицы будет иметь вид трапеции с нижним основанием, лежащим между точками 0.44 и 0.56, и с верхним основанием, лежащим между точками 0.46 и 0.54. (Произошло как бы "размытие границ" прежнего рассматриваемого объема). И для этого распределения можно подсчитать энтропию.

> Этого не понял. Видно поздно уже.

Нужно ли объяснять, откуда взялась плотность вероятности p(x) для t = 1 в форме трапеции? Или поверите на слово? :-)

> Т.е. Вы все же считаете что и в незамкнутой равновесной системе бесмысленно говорить о флуктуации "действительной" энтропии? А как быть с "действительными" U, N...?

Я же говорю: неважно, незамкнутая равновесная система или что-то еще, энтропия или какая-то другая величина. Флуктуации в любом случае имеют отношение только к результатам измерений (к оценкам) величин. "Сама величина" просто определяется физической моделью. Возьмите, для разнообразия, температуру. Что это такое по определению? Параметр равновесного состояния. Имеем конкретное равновесное состояние - по определению имеем конкретную температуру. Но при измерении получим разброс значений (как бы хорош ни был термометр). Это и есть флуктуации.

> Еще вопрос. О какой энтропии незамкнутой равновесной системы говорит Ландау в Статах (пар.114. Флуктуации основных термодинамических величин)?

Вообще-то это к авторам вопрос. Но если речь идет о флуктуациях, то, очевидно, - об измеряемых значениях.

> Если об оценочной, то и другой вопрос: с чего изначально Вы взяли что речь в статье идет о "действительной" энтропии?

Наверное, речь в статье идет об оценке по результатам измерений (ведь именно этим реально занимались авторы). Просто выражаться надо корректнее. Например говорить не о "вероятности состояний с такой-то энтропией", а о частоте получения таких-то оценок. И о втором начале не надо говорить в том смысле, что оно якобы "выполняется с вероятностью".

С точки зрения некоторых экспериментаторов может быть вероятность и частота проявления в эксперименте - по-сути одно и то же, но в действительности такая точка зрения только свидетельствует о математической безграмотности. Эдак мы скоро увидим экспериментаторов, которые станут экспериментально доказывать сформулированный в теории вероятностей закон больших чисел (путем бросания монеты).


> А как Вы будете рассчитывать эту вероятность? Из предположения, что Господь Бог наугад кидает дротиком в фазовое пространство, а потом говорит: "Куда попал, там и будет следующее микросостояние. Но физикам мы этого не скажем, а скажем только, попало оно в загаданное ими макросостояние или нет." Так? :-)

Именно так!

> Если у меня есть молекула, летящая с определенной скоростью точно в правый верхний угол ящика, то я могу точно сказать, что через определенное время она окажется в малой окрестности этого угла. Так что вероятность "попасть в этот объем" оказывается очень большой, хотя сам объем и очень маленький.

С этим никто не спорит. Но я же с самого начала ввел ограничение на задание макросостояний как объем-число частиц. Что б понять в чем проблема а не усложнять ситуацию.

> Не знаю даже, что можно добавить к написанному выше. Давайте прочитаем внимательнее. Где Вы видите знание текущего микросостояния? Все, что мы знаем на момент времени t = 0, я описал. Как видите, ни координату, ни скорость мы не знаем с абсолютной точностью: только диапазон. Еще подразумевается, что мы знаем уравнения механики, конкретнее - уравнение движения свободной частицы: x(t) = x(0) + v*t. Как Вы думаете, можем ли мы на основе этого знания сказать что-нибудь о состоянии системы в момент времени t = 1?

Добавлять к написанному не надо. Ваше макросостояние это распределение вероятностей на множестве возможных микросостояний, вероятностей, зависящих от предыдущего макросостояния. Весьма динамично. Т.е. можно представить следующую картину: начальное макросостояние - это неоднородность распределения вероятностей в фазовом объеме, которая со временем релаксирует к равномерному распределению. Вполне наглядно. И эти законы известны?

> Нужно ли объяснять, откуда взялась плотность вероятности p(x) для t = 1 в форме трапеции? Или поверите на слово? :-)

не нужно

> > Т.е. Вы все же считаете что и в незамкнутой равновесной системе бесмысленно говорить о флуктуации "действительной" энтропии? А как быть с "действительными" U, N...?

> Я же говорю: неважно, незамкнутая равновесная система или что-то еще, энтропия или какая-то другая величина. Флуктуации в любом случае имеют отношение только к результатам измерений (к оценкам) величин. "Сама величина" просто определяется физической моделью. Возьмите, для разнообразия, температуру. Что это такое по определению? Параметр равновесного состояния. Имеем конкретное равновесное состояние - по определению имеем конкретную температуру. Но при измерении получим разброс значений (как бы хорош ни был термометр). Это и есть флуктуации.

Сведем к точке. Вы просто отстаиваете квантово-механическую идею что объективных величин не существует - все что мы знаем о мире суть измерения, о них только и стоит говорить.

> > Еще вопрос. О какой энтропии незамкнутой равновесной системы говорит Ландау в Статах (пар.114. Флуктуации основных термодинамических величин)?

> Вообще-то это к авторам вопрос. Но если речь идет о флуктуациях, то, очевидно, - об измеряемых значениях.

Ладно, задам как нибудь авторам.

> С точки зрения некоторых экспериментаторов может быть вероятность и частота проявления в эксперименте - по-сути одно и то же, но в действительности такая точка зрения только свидетельствует о математической безграмотности. Эдак мы скоро увидим экспериментаторов, которые станут экспериментально доказывать сформулированный в теории вероятностей закон больших чисел (путем бросания монеты).

Экспериментаторы - как дети, им хочется верить в объективность мира.


> > А как Вы будете рассчитывать эту вероятность? Из предположения, что Господь Бог наугад кидает дротиком в фазовое пространство, а потом говорит: "Куда попал, там и будет следующее микросостояние. Но физикам мы этого не скажем, а скажем только, попало оно в загаданное ими макросостояние или нет." Так? :-)

> Именно так!

Из этого я могу предположить, что 1) Вы рассматриваете все точки фазового пространства как изначально равновероятные; 2) Законы эволюции системы (т.е. законы механики движения частиц) Вас совершенно не интересуют, соответственно, не интересно Вам и предыдущее состояние системы (Господь Бог бросает дротик не глядя на все это); 3) Вы оставляете за собой право загадать макросостояние с любой точностью, вплоть до точного знания микросостояния; в последнем случае Вы рискуете почти наверняка его не угадать, зато уж если угадали, то ого-го! - Вы будете обладать точным знанием.

Я прав в своих предположениях?

> Но я же с самого начала ввел ограничение на задание макросостояний как объем-число частиц. Что б понять в чем проблема а не усложнять ситуацию.

Что это за ограничение и откуда оно взялось? И почему число частиц должно хоть что-то изменить? Если у меня есть тысяча частиц, координаты и скорости которых мне известны с абсолютной точностью (случай классической механики), то я могу по уравнениям механики точно рассчитать их координаты и скорости через секунду. Если частицы не взаимодействуют, это даже совсем не трудно. Но и если взаимодействуют, можно записать лагранжиан системы, вывести уравнения движения, и получить их однозначное решение. Зная точно точку фазового пространства, в которую попадет система, нетрудно выбрать область очень маленького объема, в которой система окажется с единичной вероятностью.

Как-то не соответствует принципу: "система с большей вероятностью попадает в область большего объема".

> Ваше макросостояние это распределение вероятностей на множестве возможных микросостояний, вероятностей, зависящих от предыдущего макросостояния. Весьма динамично. Т.е. можно представить следующую картину: начальное макросостояние - это неоднородность распределения вероятностей в фазовом объеме, которая со временем релаксирует к равномерному распределению. Вполне наглядно. И эти законы известны?

Эти законы - это всего лишь стандартные уравнения механики плюс чуток теории вероятностей (опять же - стандартной). Как я уже писал ранее, вероятность конечного состояния можно выразить через распределение вероятностей по начальным состояниям следующим образом:

p(iкон) = ∑iкон p(iкон|iнач)*p(iнач)

Первый сомножитель в произведении, стоящем под знаком суммы, это условная вероятность некоего конечного состояния при условии некоего начального состояния. Т.е. это вероятность перехода из одного состояния в другое. Именно она определяется законами эволюции системы.

Это - стандартная формула теории вероятностей. Остается только добавить к ней механику. Законы механики как раз определяют вероятности переходов. Если они дают нам точные уравнения (как в ньютоновской механике в случае, если лагранжиан точно известен), то вероятности переходов сведутся к дельта-функциям. Например, для свободной частицы с координатой x и скоростью v:

p[x(t), v(t)| x(0), v(0)] = δ[x(t) - x(0) - v(0)*t]×δ[v(t) - v(0)]

Но в общем случае (например, если лагранжиан известен только с вероятностью), законы эволюции системы тоже могут иметь вероятностную форму.

> > Нужно ли объяснять, откуда взялась плотность вероятности p(x) для t = 1 в форме трапеции? Или поверите на слово? :-)

> не нужно

А... Получилось так, что половину объяснения уже выше изложил.

> Сведем к точке. Вы просто отстаиваете квантово-механическую идею что объективных величин не существует - все что мы знаем о мире суть измерения, о них только и стоит говорить.

Не уверен, что монополия на эту идею принадлежит квантовой механике. Но суть не в философском вопросе, "существуют ли объективные величины". Суть в том, что понятия (величины) следует интерпретировать в рамках тех теоретических концепций, которые их определяют, а не ассоциировать с ними результат некоторого наблюдения просто потому, что эта ассоциация показалась нам очевидной.

Пример, который я уже приводил: склоность многих смешивать частоту наблюдения явления с его вероятностью. На самом деле, есть теория, определяющая понятие вероятности, и согласно ей частота имеет к вероятности весьма косвенное отношение.

> Экспериментаторы - как дети, им хочется верить в объективность мира.

Хочется - пусть верят. Скажу даже более: хочется верить в "объективность" вероятности - пусть верят и в нее. Проблемы начнутся только тогда, когда экспериментатор, выбросив орла один раз из трех попыток, сочтет, что он наблюдает эту самую "объективную вероятность", равную 1/3.


> p(iкон) = ∑iкон p(iкон|iнач)*p(iнач)

Суммировать следует по iнач, а не по iкон.


У меня есть подозрение что пинцип “информация не возникает ниоткуда” взят из воздуха. Поэтому, чтоб прояснить ситуацию хочется уточнить опредления.

1) Что такое информация? Исчерпывающее опредление, кототое ты используешь в спорах про энтропию (но без ссылки на энропию). Где информация хранится и как (кем) она интерпретируется?

2) Как и в какой области доказывается, теорема что информация ниоткуда браться не может?

Желатьельно получить понятия не ссылающееся на 2-закон термодинамики.


> У меня есть подозрение что пинцип “информация не возникает ниоткуда” взят из воздуха. Поэтому, чтоб прояснить ситуацию хочется уточнить опредления.

> 1) Что такое информация? Исчерпывающее опредление, кототое ты используешь в спорах про энтропию (но без ссылки на энропию). Где информация хранится и как (кем) она интерпретируется?

Информация хранится в виде состояния рассматриваемого объекта (системы). Интерпретируется она тем, кто получает сообщение о состоянии этого объекта. Как - это уже зависит от интерпретатора. Можно вообще все проигнорировать, можно извлечь только 10% "полезной" информации, проигнорировав "несущественные детали", а можно использовать все.

Не путайте саму информацию с ее количественной мерой. (Так же, как не следует путать воду с литрами). Я, кажется давал определение именно количеству информации.

> 2) Как и в какой области доказывается, теорема что информация ниоткуда браться не может?

Это не теорема, а принцип. Поэтому он далеко не всегда формально выполняется. (Например, его нарушает Демон Максвелла). Но, вообще-то, это только дефект формулировки. В правильной формулировке этот принцип является самоочевидным: если мы никаких новых сообщений о состоянии системы не получали, мы ничего нового о ней не узнали.


> Информация хранится в виде состояния рассматриваемого объекта (системы).

Понятно.

> Интерпретируется она тем, кто получает сообщение о состоянии этого объекта. Как - это уже зависит от интерпретатора.

Понятно.

> Не путайте саму информацию с ее количественной мерой. (Так же, как не следует путать воду с литрами). Я, кажется давал определение именно количеству информации.

Я не путаю. Предполагаю, что утверждение “информацийя ниоткуда браться не может” эквивалентно утверждению “количество информации не может увеличиваться”.

> Это не теорема, а принцип. Поэтому он далеко не всегда формально выполняется.
(Например, его нарушает Демон Максвелла). Но, вообще-то, это только дефект формулировки. В правильной формулировке этот принцип является самоочевидным: если мы никаких новых сообщений о состоянии системы не получали, мы ничего нового о ней не узнали.

Для меня этот принцип далеко не очевиден в приложении к той информации о которой мы говорим.

Более того, для других видов информации можно приводить много примеров когда информация может генерироваться. Это подчеркивает неочевидность принципа.

Из того, что ты говоришь следует что этот принцип или имперический, как например, 2-ой закон Ньютона, или принят как логическая аксиома, как в математике. Я никогда с таким фундаментальным утверждением, которое, по всей видимости применимо только в физике, не встречался.

Про Демон Максвелла я уверен, что его сделать нельзя, кроме как использовать непрактический метод предложенный stubborn (перекрывать перегородку и смотреть на разность давлений в сосудах). Уверен потому, что если б его можно было сделать, то биологические организмы его б давно сделали и использовали. Существующие и будущие нанотехнологии отдыхают в сравнении с тем на что способны билогоческие системы. Дeмон Максвелла нанотехнологиям будет не под силу ещё очень долгое время.


> Предполагаю, что утверждение “информацийя ниоткуда браться не может” эквивалентно утверждению “количество информации не может увеличиваться”.

В общем-то верно. Только когда дело дойдет до строгой математики, обнаружится, что в общем случае количество информации может оказаться случайной величиной. А это значит, что это утверждение нам придется интерпретировать не в строго логическом, а в вероятностном смысле.

> Для меня этот принцип далеко не очевиден в приложении к той информации о которой мы говорим.

> Более того, для других видов информации можно приводить много примеров когда информация может генерироваться. Это подчеркивает неочевидность принципа.

> Из того, что ты говоришь следует что этот принцип или имперический, как например, 2-ой закон Ньютона, или принят как логическая аксиома, как в математике. Я никогда с таким фундаментальным утверждением, которое, по всей видимости применимо только в физике, не встречался.

В том-то и дело, что выполнимость или невыполнимость этого принципа определяется тем, как он конкретно будет сформулирован в строгой математической форме и применительно к чему.

Например, если мы допускаем, что мы можем получать информацию о состоянии системы посредством "озарения" или "интуитивного прозрения", т.е. скажем так: сообщения, получаемого непосредственно от Господа Бога; то принцип, конечно, не работает.

Другой пример, это та "генерация" информации, о которой ты говоришь. Скажем, я сочиняю новую теорию: придумываю новые понятия, даю им определения, потом придумываю аксиомы, из которых будут следовать теоремы. Это тоже можно расценивать как возникновение новой информации из ничего. В дальнейшем я могу даже предположить, что эта теория как-то применима к описанию рассматриваемого нами физического объекта. (Обычно такие теории называют "спекуляциями" - термин вовсе не ругательный, а очень даже уважительный: с учетом того, что именно из таких спекуляций получилось абсолютное большинство продуктивных теорий).

Еще один пример "генерации" информации: написание компьютерной программы. При этом тоже килобайты и более того информации рождаются вроде бы из ничего. Конечно, во всех этих случаях этот принцип не работает.

Чтобы он заработал, мы должны рассмотреть модель, в которой информация принимается только от точно обозначенных "достоверных источников". Если мы не считаем "озарение" или "предчувствие" достоверным источником - мы их просто игнорируем. Точно так же мы можем игнорировать любые спекулятивные суждения как "домыслы". Но, допустим, у нас есть достоверный источник информации о состоянии системы - физический эксперимент. Если в результате эксперимента мы получили информацию о состоянии системы (с той или иной точностью), мы должны считать это "законным приобретением" информации, которое не нарушает означенный принцип просто потому, что выходит за его рамки: мы не можем сказать, что получили информацию "из ничего", поскольку точно знаем ее источник.

Так что получается, что в "правильной" модели мы никак не можем нарушить этот принцип: если информация поступила неизвестно откуда, мы просто не вправе ее принимать, если же источник нам известен и пользуется доверием, то мы уже не вправе считать, что информация получена "из ниоткуда".

Если вспомнить про термодинамику, то здесь мы имеем дело с информацией о начальном состоянии системы и с физическими законами, описывающими ее эволюцию (собственно, как практически и во всей физике). Эта информация считается достоверной. Вопрос состоит в том, что мы можем сказать о будущем состоянии системы. Как видите, это формально подходит под "правильную" модель: достоверные источники информации поработали и к начальному моменту времени отключились, в дальнейшем мы имеем только ту информацию, которую уже имеем, "придумывать" или "угадывать" что-либо не вправе.

> Про Демон Максвелла я уверен, что его сделать нельзя, кроме как использовать непрактический метод предложенный stubborn (перекрывать перегородку и смотреть на разность давлений в сосудах). Уверен потому, что если б его можно было сделать, то биологические организмы его б давно сделали и использовали. Существующие и будущие нанотехнологии отдыхают в сравнении с тем на что способны билогоческие системы. Дeмон Максвелла нанотехнологиям будет не под силу ещё очень долгое время.

Биологические организмы, как ни странно, его уже давно сделали. Приведу пример. Возможность распространения сигнала по нервному волокну обеспечивается разницей концентраций ионов калия и натрия внутри волокна по отношению к наружнему окружению. После прохождения сигнала эта разница концентраций требует восстановления. Восстанавливается она посредством миниатюрных "ионных насосов", вмонтированных в стенки волокна. Фактически, эти насосики - это те же "Демоны Максвелла". И ничуть они не "перегреваются" и не "ломаются", как доказывали те, кто считал, что создание Демона Максвелла на практике невозможно, а прекрасно работают. Думаю, и нанотехнологии до этого со временем доберутся.

Другой вопрос, как их работа соотносится со вторым началом. Если рассчитывать энтропию по точкам фазового пространства, то Демон Максвелла явно нарушает второе начало. О чем это свидетельствует? По-моему - только о неточности формулировки.


> > Предполагаю, что утверждение “информацийя ниоткуда браться не может” эквивалентно утверждению “количество информации не может увеличиваться”.

> В общем-то верно. Только когда дело дойдет до строгой математики, обнаружится, что в общем случае количество информации может оказаться случайной величиной. А это значит, что это утверждение нам придется интерпретировать не в строго логическом, а в вероятностном смысле.

То есть иногда количество информации (строго логически) может увеличиваться - тогда когда информация оказывается случайной величиной.

> > Для меня этот принцип далеко не очевиден в приложении к той информации о которой мы говорим.

> > Более того, для других видов информации можно приводить много примеров когда информация может генерироваться. Это подчеркивает неочевидность принципа.

> > Из того, что ты говоришь следует что этот принцип или имперический, как например, 2-ой закон Ньютона, или принят как логическая аксиома, как в математике. Я никогда с таким фундаментальным утверждением, которое, по всей видимости применимо только в физике, не встречался.

> В том-то и дело, что выполнимость или невыполнимость этого принципа определяется тем, как он конкретно будет сформулирован в строгой математической форме и применительно к чему.

> Например, если мы допускаем, что мы можем получать информацию о состоянии системы посредством "озарения" или "интуитивного прозрения", т.е. скажем так: сообщения, получаемого непосредственно от Господа Бога; то принцип, конечно, не работает.

> Другой пример, это та "генерация" информации, о которой ты говоришь. Скажем, я сочиняю новую теорию: придумываю новые понятия, даю им определения, потом придумываю аксиомы, из которых будут следовать теоремы. Это тоже можно расценивать как возникновение новой информации из ничего. В дальнейшем я могу даже предположить, что эта теория как-то применима к описанию рассматриваемого нами физического объекта. (Обычно такие теории называют "спекуляциями" - термин вовсе не ругательный, а очень даже уважительный: с учетом того, что именно из таких спекуляций получилось абсолютное большинство продуктивных теорий).

> Еще один пример "генерации" информации: написание компьютерной программы. При этом тоже килобайты и более того информации рождаются вроде бы из ничего. Конечно, во всех этих случаях этот принцип не работает.

Это уже положительный факт, что мы согласны что в других областях принцип “информация не появляется ниоткуда” не применим.

> Чтобы он заработал, мы должны рассмотреть модель, в которой информация принимается только от точно обозначенных "достоверных источников". Если мы не считаем "озарение" или "предчувствие" достоверным источником - мы их просто игнорируем. Точно так же мы можем игнорировать любые спекулятивные суждения как "домыслы". Но, допустим, у нас есть достоверный источник информации о состоянии системы - физический эксперимент. Если в результате эксперимента мы получили информацию о состоянии системы (с той или иной точностью), мы должны считать это "законным приобретением" информации, которое не нарушает означенный принцип просто потому, что выходит за его рамки: мы не можем сказать, что получили информацию "из ничего", поскольку точно знаем ее источник.

> Так что получается, что в "правильной" модели мы никак не можем нарушить этот принцип: если информация поступила неизвестно откуда, мы просто не вправе ее принимать, если же источник нам известен и пользуется доверием, то мы уже не вправе считать, что информация получена "из ниоткуда".

Я понимаю, что ты имеешь в виду информацию которая храниться в системе и которую мы тем или иным образом можем считывать, например австралийсцы считали молекулы оптической ловушкой. Да, источник информации это наша система, но из того что мы имеем объективный источник информации не следует просто так, что количество информации кототое он нам выдает должно строго увеличиваться.

Я понимаю, что ты тут будешь говорить про флуктуации количества информации и что “в среднем” информация растет всегда, но если ты сможешь четко разграничить флуктуации и истинный процесс роста информации я приведу тебе простой пример показывающий, что такое разграничение делать нельзя. Напоминаю, что мы информацию/энтропию считаем на бумаге точно, и никаких погрешностей измерения здесь быть не может.

> Если вспомнить про термодинамику, то здесь мы имеем дело с информацией о начальном состоянии системы и с физическими законами, описывающими ее эволюцию (собственно, как практически и во всей физике). Эта информация считается достоверной. Вопрос состоит в том, что мы можем сказать о будущем состоянии системы. Как видите, это формально подходит под "правильную" модель: достоверные источники информации поработали и к начальному моменту времени отключились, в дальнейшем мы имеем только ту информацию, которую уже имеем, "придумывать" или "угадывать" что-либо не вправе.

Это вода, прошу прощения.

> > Про Демон Максвелла я уверен, что его сделать нельзя, кроме как использовать непрактический метод предложенный stubborn (перекрывать перегородку и смотреть на разность давлений в сосудах). Уверен потому, что если б его можно было сделать, то биологические организмы его б давно сделали и использовали. Существующие и будущие нанотехнологии отдыхают в сравнении с тем на что способны билогоческие системы. Дeмон Максвелла нанотехнологиям будет не под силу ещё очень долгое время.

> Биологические организмы, как ни странно, его уже давно сделали. Приведу пример. Возможность распространения сигнала по нервному волокну обеспечивается разницей концентраций ионов калия и натрия внутри волокна по отношению к наружнему окружению. После прохождения сигнала эта разница концентраций требует восстановления. Восстанавливается она посредством миниатюрных "ионных насосов", вмонтированных в стенки волокна. Фактически, эти насосики - это те же "Демоны Максвелла". И ничуть они не "перегреваются" и не "ломаются", как доказывали те, кто считал, что создание Демона Максвелла на практике невозможно, а прекрасно работают. Думаю, и нанотехнологии до этого со временем доберутся.

> Другой вопрос, как их работа соотносится со вторым началом. Если рассчитывать энтропию по точкам фазового пространства, то Демон Максвелла явно нарушает второе начало. О чем это свидетельствует? По-моему - только о неточности формулировки.

Эти ионные насосы в наших нервах требуют горючего. Мозг умирает черз 5 минут без доступа кислорода и именно из за работы этих насосов тепловыделение мозга очень большое. Так что называть это Демоном Максвелла нельзя.

В принципе Демон Максвелла создать можно - он не противеречит ни одному классическому закону (только не надо говорить что он противоречит 2-мму началу термодинамики). Только практически сделать его, по-видимому, невожможно, так как все предметы состоят из молекул. Однако, можно сделать демон Максвелла для пылинок или других достаточно больших частиц.


Спасибо за подробные ответы. Я становился на точку зрения unabashedа что б выяснить в чем разница ваших подходов. В целом понятно. У unabashedа есть проблема в определении макросостояния, т.е. вероятностный характер макросостояния eprosa заменяется здесь (должен заменяться) на вероятностное распределение "сходных" макросостояний... как-то так. Не строго конечно, но кажеться что свести так эти подходы один к другому можно.

Что касается практического отыскания энтропии, то я не вижу преимущества ни одной из моделей. Я понимаю КАК в общем виде суммируются и умножаются вероятности и к чему это можно свести в тривиальном случае дельта-функций. Я НЕ знаю стартуя от какой модели легче решать нетривиальные случаи. Но об этом конечно и нельзя судить на словах не выписав соответствующих уравнений (опять эти функции Грина :).

Насчет определения энтропии, думаю Вы согласны что спор был чисто терминологический. Если речь идет об измеряемой энтропии, то она может флуктуировать, а если о вероятной, то какие уж тут флуктуации. Т.е. не будем считать, что экспериментатор настолько глуп, что выбросив орла один раз из трех попыток, сочтет, что он наблюдает "объективную вероятность", равную 1/3.


Не хочу встрявать в вашу дискуссию об информации - не вижу как можно что-то выяснить бросая друг в друга фразами из разных словарей. Но насчет демона Максвелла это вас обоих куда-то занесло. Демон Максвела, как я всегда считал, это пример вечного двигателя второго рода, который позволяет получать полезную работу только понижая внутреннюю энергию системы. С какой стати вы оба переопределяете это понятие? Зачем распостранять "Демон Максвела" на пыль, если из этого работы не получишь? - можно еще расставить фигуры на шахматной доске..


> Не хочу встрявать в вашу дискуссию об информации - не вижу как можно что-то выяснить бросая друг в друга фразами из разных словарей.

> Но насчет демона Максвелла это вас обоих куда-то занесло. Демон Максвела, как я всегда считал, это пример вечного двигателя второго рода, который позволяет получать полезную работу только понижая внутреннюю энергию системы. С какой стати вы оба переопределяете это понятие? Зачем распостранять "Демон Максвела" на пыль, если из этого работы не получишь? - можно еще расставить фигуры на шахматной доске..

У меня нет четко определьного научного понятия в голове что такое информация, а скорее бытовое. Но я хочу понять, используя определение информации _по eprosу_, почему он так уверен в самоочевидности принципа роста/убывания (я уже запутался) количества информации.

Что касается демона Максвелла, то мы немного отошли от твоего, и по видимому правильного, определения. Тем не менее обсуждение не теряет смысла. Я, кстати, утверждал, что если б микроорганизмы смогли сделать демон Максвелла, то они б уже давно использовали вечный двигатель второго рода, а не только фотосинтез как основы жизни (источник низкой энтропии).


> Спасибо за подробные ответы. Я становился на точку зрения unabashedа что б выяснить в чем разница ваших подходов. В целом понятно. У unabashedа есть проблема в определении макросостояния, т.е. вероятностный характер макросостояния eprosa заменяется здесь (должен заменяться) на вероятностное распределение "сходных" макросостояний... как-то так. Не строго конечно, но кажеться что свести так эти подходы один к другому можно.

> Что касается практического отыскания энтропии, то я не вижу преимущества ни одной из моделей. Я понимаю КАК в общем виде суммируются и умножаются вероятности и к чему это можно свести в тривиальном случае дельта-функций. Я НЕ знаю стартуя от какой модели легче решать нетривиальные случаи. Но об этом конечно и нельзя судить на словах не выписав соответствующих уравнений (опять эти функции Грина :).

> Насчет определения энтропии, думаю Вы согласны что спор был чисто терминологический. Если речь идет об измеряемой энтропии, то она может флуктуировать, а если о вероятной, то какие уж тут флуктуации. Т.е. не будем считать, что экспериментатор настолько глуп, что выбросив орла один раз из трех попыток, сочтет, что он наблюдает "объективную вероятность", равную 1/3.

В своих сообщениях я опускал распределение по микросостояниям, а не макросостояниям. Для сосуда с газом это можно делать для облегчения понимания. Если это рапределение не опускать то мы получим стандартную формулу для энтропий, а не логарифм фазового объема.

Спор наш с эпросом, как я считаю, только о настоящем смысле 2-го закона термодинамики. Повторяю в чем мы конкретно расходимся: из моей позизии следует, что энтропия может уменьшаться, но происходит это реже чем её увеличение (о чем кстати и говорит флуктуационная теорема). По эпросу же энтропия уменьшаться не может НИКОГДА, так как 2-ой закон истекает из четкого принципа “не увеличения/уменьшения информации”. Это было понятно с самого начала - почитай самые первые посты.

Потом эпрос все же признал, что существуют флуктуации (наверно на него повлияло существование флуктуационной теоремы) и пытается воскресить свой принцип утверждая что он статистический. Тут у него будет опять проблема - в том что он не сможет отличить флуктуацию от нормального изменнения энтропии. Я предполагаю, что он может утверждать, что если энтропия уменьшилась - то это флуктуация, а если увеличилась, то правильный процесс. Вспомни фразу из Ландавщица: “подавляюще вероятно, что система пришла в текущее состояние из состояния с БОЛЕЕ высокой энтропией”, по эпросу, следоватесльно, подавляюще вероятно, что текущее значение энтропии это флуктуация.

Так же проблема подхода эпроса состоит в невозможности объяснить правильно обращение времени.


> То есть иногда количество информации (строго логически) может увеличиваться - тогда когда информация оказывается случайной величиной.

Скорее я бы сказал, что мы не всегда можем в точности судить о количестве получаемой информации. Например, нам известно распределение по микросостояниям p(i). Как ответить на вопрос, какого количества информации нам недостает до точного знания микросостояния? В соответствии с определением количества информации: -log{p(i)}. Но какое в итоге окажется i - неизвестно. Об этом пока что можно судить только с вероятностью. Вот и получается, что данное количество информации - случайная величина.

> Это уже положительный факт, что мы согласны что в других областях принцип “информация не появляется ниоткуда” не применим.

Чтобы избежать недопонимания, хочу еще раз подчеркнуть разницу между теоремой и принципом. Теорема всегда доказывается на основе того, во что мы безусловно верим (аксиом, правил логического вывода и т.д.) Поэтому в рамках заранее определенной для нее сферы применения она просто обязана выполняться. Принцип - это, наоборот, формулировка, которая должна выполняться по определению, т.е. такая, которая сама определяет сферу своего применения: если оказывается, что принцип не выполняется, то это просто означает, что мы вышли за пределы сферы его применения.

Так что да, я соглашаюсь с тем, что существуют области, в которых этот принцип неприменим. Но в то же время я предлагаю вернуться в область его применимости. В этом нет особенного парадокса: эта область практически совпадает с областью точных наук. Ведь нарушить принцип мы сможем только если согласимся принимать информацию из неопределенных источников. Что противоестественного в требовании, чтобы любые выводы основывались только на достоверной информации? Ясно, что в жизни это далеко не всегда бывает так. Но в естественных науках, по крайней мере - в идеале, должно быть так.

> Я понимаю, что ты имеешь в виду информацию которая храниться в системе и которую мы тем или иным образом можем считывать, например австралийсцы считали молекулы оптической ловушкой. Да, источник информации это наша система, но из того что мы имеем объективный источник информации не следует просто так, что количество информации кототое он нам выдает должно строго увеличиваться.

Не надо сразу все переводить в количество информации. Это легко только на словах, а в математике сразу возникают вопросы, что делать с лезущими изо всех углов случайными величинами. На самом деле достоверный источник информации может сообщить нам нечто новое, которое начисто отменяет нечто, что мы считали известным ранее, и более ничего ценного не сообщить. В этом случае весьма трудно судить о том, увеличилось ли количество имеющейся информации. Как я уже сказал, математически это сводится к тому, что количество информации оказывается случайной величиной.

Так что конечно нельзя говорить о том, что количество информации должно строго увеличиваться. Но, то, что можно сказать совершенно определенно, это что мы получили новую информацию помимо старой, которая тоже в принципе никуда не делась. Заметь, в этом предложении нет никаких упоминаний о "количествах", а сама информация, в отличие от ее количества, вовсе не обязана складываться арифметически.

> если ты сможешь четко разграничить флуктуации и истинный процесс роста информации я приведу тебе простой пример показывающий, что такое разграничение делать нельзя. Напоминаю, что мы информацию/энтропию считаем на бумаге точно, и никаких погрешностей измерения здесь быть не может.

Я не знаю, что ты конкретно подразумеваешь под "разграничением", но по-моему разграничение теоретического определения величины и ее конкретного измеренного значения - вещь достаточно естественная для любой величины. Впрочем, так же естественно и установление между ними связи в каждом конкретном случае. Просто когда мы говорим о параметрах распределений вероятностей (а энтропия - один из таких параметров), между этими двумя вещами может наблюдаться и численная разница. Теория вероятности формально описывает эти отклонения, и до тех пор, пока они соответствуют наблюдениям, мы имеем право говорить о состоятельности теории (вероятностной модели ситуации).

А что значит "энтропию" считаем точно? Оценка вероятности выпадения орла по формуле k/n тоже является конкретным числом. Но теория вероятности может при этом указать, каковы вероятности отклонения этой оценки в ту или иную сторону от теоретически определенной величины.

> > Если вспомнить про термодинамику, то здесь мы имеем дело с информацией о начальном состоянии системы и с физическими законами, описывающими ее эволюцию (собственно, как практически и во всей физике). Эта информация считается достоверной. Вопрос состоит в том, что мы можем сказать о будущем состоянии системы. Как видите, это формально подходит под "правильную" модель: достоверные источники информации поработали и к начальному моменту времени отключились, в дальнейшем мы имеем только ту информацию, которую уже имеем, "придумывать" или "угадывать" что-либо не вправе.

> Это вода, прошу прощения.

Печально. Я полагаю, что это описание схемы, по которой термодинамическая задача укладывается в общие рамки задачи теории информации.

> Эти ионные насосы в наших нервах требуют горючего. Мозг умирает черз 5 минут без доступа кислорода и именно из за работы этих насосов тепловыделение мозга очень большое. Так что называть это Демоном Максвелла нельзя.

Это вопрос спорный, что там требует горючего и в какой мере. Конечно, перемещение заряженной частицы в область с повышенным потенциалом требует затрат энергии. Но если отвлечься от этого, то сам принцип работы ионного насоса вполне соответствует Демону Максвелла: когда частица попадает в дырку с одной стороны, она там фиксируется таким образом, что может выскочить только в другую сторону. С какой энергией она выскочит - это уже вопрос технической реализации. В принципе механика позволяет организовать процесс ее взаимодействия с клапаном таким образом, что клапану никакую энергию при этом частица не передаст.


> Демон Максвела, как я всегда считал, это пример вечного двигателя второго рода, который позволяет получать полезную работу только понижая внутреннюю энергию системы. С какой стати вы оба переопределяете это понятие? Зачем распостранять "Демон Максвела" на пыль, если из этого работы не получишь? - можно еще расставить фигуры на шахматной доске..

Да, как теоретическая модель Демон Максвелла, это вечный двигатель второго рода. Давайте вспомним, почему он тоже назван "вечным" (как и двигатель первого рода). Как известно, энергия никуда не пропадает: совершив "полезную работу", мы фактически просто рассеяли соответствующее количество энергии (автомобиль разогнался, но в конце концов за счет трения рассеял всю свою энергию по дороге и по воздуху). Вечный двигатель второго рода - это такая штука, которая позволила бы эту энергию "собрать" и использовать повторно. Вот в этом бесконечном повторном использовании энергии и заключается абсурд.

Нужно просто понять, почему реальные конструкции, сконструированные по принципу Демона Максвелла, на это не способны.

А что касается макроскопических моделей, то вовсе не факт, что в них невозможно получить работу, используя внутреннюю энергию системы. Возьмите объекты покрупнее, чем пыль. Наример, систему из быстро движущихся по столу бильярдных шаров. Поставьте в середине стола множество маленьких перегородочек. А теперь следите и быстро убирайте перегородочку в тот, момент когда шар из правой половины переходит в левую половину. Шары слева, естественнО, будут от перегородки всегда отражаться. Действия по перемешению перегородочек не требуют затрат энергии - только быстроты реакции. Получился полный макроскопический аналог Демона Максвелла. А после того, как все шары соберутся слева, можно поместить вместо отдельных перегородочек тяжелую балку не колесиках. Стукаясь об нее, шары будут передавать ей импульс. В конце концов она разгонится т.е. приобретет кинетическую энергию за счет только внутренней энергии системы шаров.


> Спор наш с эпросом, как я считаю, только о настоящем смысле 2-го закона термодинамики. Повторяю в чем мы конкретно расходимся: из моей позизии следует, что энтропия может уменьшаться, но происходит это реже чем её увеличение (о чем кстати и говорит флуктуационная теорема). По эпросу же энтропия уменьшаться не может НИКОГДА, так как 2-ой закон истекает из четкого принципа “не увеличения/уменьшения информации”. Это было понятно с самого начала - почитай самые первые посты.

Моя позиция состоит в том, что 2-е начало имеет однозначную вероятностную формулировку, которая работает в своей сфере применимости. Эта формулировка касается теоретической модели объекта, предоставляемой физикой, а значит к непосредственно измеряемым значениям величин имеет косвенное отношение.

Я продемонстрировал это примером, рассмотрев модель, в рамках которой по начальному макросостоянию системы, зная законы механики, всегда можно однозначно определить конечное макросостояние.

Теперь об измерениях и о флуктуациях. Имея вероятностную модель системы, можно рассчитать вероятности получения в эксперименте тех или иных значений для тех или иных величин, а значит - и их разброс. Если эксперимент показывает соответствующие данные, можно смело говорить о состоятельности физической модели системы, но вряд ли имеет смысл судить о состоятельности или несостоятельности самого 2-ого начала термподинамики.

> Потом эпрос все же признал, что существуют флуктуации (наверно на него повлияло существование флуктуационной теоремы) и пытается воскресить свой принцип утверждая что он статистический. Тут у него будет опять проблема - в том что он не сможет отличить флуктуацию от нормального изменнения энтропии. Я предполагаю, что он может утверждать, что если энтропия уменьшилась - то это флуктуация, а если увеличилась, то правильный процесс. Вспомни фразу из Ландавщица: “подавляюще вероятно, что система пришла в текущее состояние из состояния с БОЛЕЕ высокой энтропией”, по эпросу, следоватесльно, подавляюще вероятно, что текущее значение энтропии это флуктуация.

Это совершенно не соответствует моей позиции. Я не рассматриваю "нормальные" или "ненормальные" флуктуации. По определению, флуктуация - это отклонение результата измерения величины от ее теоретического средневероятного значения. Вероятность такого отклонения можно рассчитать на основе теоретической модели объекта.

> Так же проблема подхода эпроса состоит в невозможности объяснить правильно обращение времени.

Повторяю свою позицию: в механике обращение времени теоретически допустимо, в термодинамике и вообще в вероятностных формализмах - в общем случае не является теоретически допустимым. Не вижу в этом проблем.

Говорить же об "обращении времени" вне всяких теорий считаю бессмысленным.


> Моя позиция состоит в том, что 2-е начало имеет однозначную вероятностную формулировку, которая работает в своей сфере применимости. Эта формулировка касается теоретической модели объекта, предоставляемой физикой, а значит к непосредственно измеряемым значениям величин имеет косвенное отношение.

Ну так зачем же наезжать на экспериментаторов (австралийцев) в том что они что-то не так померяли?

> Теперь об измерениях и о флуктуациях. Имея вероятностную модель системы, можно рассчитать вероятности получения в эксперименте тех или иных значений для тех или иных величин, а значит - и их разброс. Если эксперимент показывает соответствующие данные, можно смело говорить о состоятельности физической модели системы, но вряд ли имеет смысл судить о состоятельности или несостоятельности самого 2-ого начала термподинамики.

Повторяю, что энтропию не меряли, а считали на бумаге (ещё до эксперимента). Меряли состояние системы чтоб знать в каком макросостоянии она находилась, чтоб узнать энтропию.

> Это совершенно не соответствует моей позиции. Я не рассматриваю "нормальные" или "ненормальные" флуктуации. По определению, флуктуация - это отклонение результата измерения величины от ее теоретического средневероятного значения. Вероятность такого отклонения можно рассчитать на основе теоретической модели объекта.

Так вот ИЛИ строгое определение “теоретического средневероятного значения” не существует, ИЛИ нельзя доказать, что это значение строго растет (точнее не уменьшается и не константа всегда). В лучшем случае можно показать, что это заначение константа всегда, и в том эслучае 2-ой закон термодинамики не про эту величину.

Эпрос, твоя ошибка состоит в том, что ты думаешь, что существует твоя теоретическая энтропия которая строго не уменьшается, но не константа, а также измеряемая энтропия которая равна теоретической плюс флуктуация. Это не верно. Сущствует всего одна энтропия (текущая), которая вычисляется, а не меряется.

Если ты умудришьси толком объяснить, что ты имеешь в виду под своей теоретической энтропией, я тебе покажу почему она или константа или может уменьшаться (ты наверно и сам можешь догадаться вспомнив один пример stubborn).


> Повторяю свою позицию: в механике обращение времени теоретически допустимо, в термодинамике и вообще в вероятностных формализмах - в общем случае не является теоретически допустимым. Не вижу в этом проблем.

В механике и так все понятно с обращением времени. Вот в термодинамике есть два подхода к пониманию того что происходит с энтропией при обращении времени. Один подход (твой) говорит, что при обращени времени энтропия будет уменьшаться. Другой подход говорит что подавляюще вероятно (так же “подавляюще” как и при прямом времни), что энтропия будет увеличиваться таким же образом как если б время шло вперед. Тут есть небольшие но, которые я ужа описывал. Так вот, хотя есть некоторый смысл и в первой позиции (это частный случай), вторая точка зрения являестяи правильной, так как она представляет собой общий случай.



> Скорее я бы сказал, что мы не всегда можем в точности судить о количестве получаемой информации. Например, нам известно распределение по микросостояниям p(i). Как ответить на вопрос, какого количества информации нам недостает до точного знания микросостояния? В соответствии с определением количества информации: -log{p(i)}. Но какое в итоге окажется i - неизвестно. Об этом пока что можно судить только с вероятностью. Вот и получается, что данное количество информации - случайная величина.

Ну вот! Эпрос, утверждает что информация сохраняется, но в то же время количество информации это cлучайная величина!

> > Это уже положительный факт, что мы согласны что в других областях принцип “информация не появляется ниоткуда” не применим.

> Чтобы избежать недопонимания, хочу еще раз подчеркнуть разницу между теоремой и принципом. Теорема всегда доказывается на основе того, во что мы безусловно верим (аксиом, правил логического вывода и т.д.) Поэтому в рамках заранее определенной для нее сферы применения она просто обязана выполняться. Принцип - это, наоборот, формулировка, которая должна выполняться по определению, т.е. такая, которая сама определяет сферу своего применения: если оказывается, что принцип не выполняется, то это просто означает, что мы вышли за пределы сферы его применения.

> Так что да, я соглашаюсь с тем, что существуют области, в которых этот принцип неприменим. Но в то же время я предлагаю вернуться в область его применимости.

которую ты сам придумал

> В этом нет особенного парадокса: эта область практически совпадает с областью точных наук. Ведь нарушить принцип мы сможем только если согласимся принимать информацию из неопределенных источников.

Сильно сказано!!

> Не надо сразу все переводить в количество информации. Это легко только на словах, а в математике сразу возникают вопросы, что делать с лезущими изо всех углов случайными величинами. На самом деле достоверный источник информации может сообщить нам нечто новое, которое начисто отменяет нечто, что мы считали известным ранее, и более ничего ценного не сообщить. В этом случае весьма трудно судить о том, увеличилось ли количество имеющейся информации. Как я уже сказал, математически это сводится к тому, что количество информации оказывается случайной величиной.

Грандиозно! Этот человек до сих пор думает, что формула ln(взвешенная_сумма_состояний) выдает случайные числа!

> Так что конечно нельзя говорить о том, что количество информации должно строго увеличиваться.

> Но, то, что можно сказать совершенно определенно, это что мы получили новую информацию помимо старой, которая тоже в принципе никуда не делась. Заметь, в этом предложении нет никаких упоминаний о "количествах", а сама информация, в отличие от ее количества, вовсе не обязана складываться арифметически.

> Я не знаю, что ты конкретно подразумеваешь под "разграничением", но по-моему разграничение теоретического определения величины и ее конкретного измеренного значения - вещь достаточно естественная для любой величины. Впрочем, так же естественно и установление между ними связи в каждом конкретном случае. Просто когда мы говорим о параметрах распределений вероятностей (а энтропия - один из таких параметров), между этими двумя вещами может наблюдаться и численная разница. Теория вероятности формально описывает эти отклонения, и до тех пор, пока они соответствуют наблюдениям, мы имеем право говорить о состоятельности теории (вероятностной модели ситуации).

Ладно, что такое флуктуация? Это случайное отклонение от какой-то средней величины. Я так понимаю, что ты утверждаешь, что эта средняя величина есть истинная энтропия которая строго растет (в соответствии с твоим принцыпом информации). Я утверждаю, что ты не прав. Нет такой средней энтропии которая строго не убывает и не является константой.

Одно подтверждение простое. Во-первых если мы возьмем определение матожидания, то нам надо бесконечный интервал усреднения. Это нам даст среднию энтропию которая вообще никогда не меняется. Для любого другого метода усреднения (не только простейщего усреднения по интервалу времени) не существует такого среднего котороe всегда не убывает и не константа.

Второе подтверждение это то, что энтропия считается по простой формуле. Нет тут никакого колдовства, неопредельности и ошибок измерения.

Эпрос, тебе пора признать, что ты спор проиграл и пересмотреть свои взгляды на энтропию. В ней намного меньше загадок чем люди такие как ты пытаються представить. Твоя точка зрения поддерживается стремелением к мистике, а не к истине.

> А что значит "энтропию" считаем точно? Оценка вероятности выпадения орла по формуле k/n тоже является конкретным числом. Но теория вероятности может при этом указать, каковы вероятности отклонения этой оценки в ту или иную сторону от теоретически определенной величины.

Можно точно посчитать на бумаге вероятность выпадания орла исходя из формы монеты. Вычисление энтропии эквивалентно именно такому расчёту на бумаге, а не бросанию монеты. Аналогично, можно точно сказать чему равна энтропия газа в сосуде объемом V, температуре Т и количеству молекул N - не надо ничего мерять.

> > > Если вспомнить про термодинамику, то здесь мы имеем дело с информацией о начальном состоянии системы и с физическими законами, описывающими ее эволюцию (собственно, как практически и во всей физике). Эта информация считается достоверной. Вопрос состоит в том, что мы можем сказать о будущем состоянии системы. Как видите, это формально подходит под "правильную" модель: достоверные источники информации поработали и к начальному моменту времени отключились, в дальнейшем мы имеем только ту информацию, которую уже имеем, "придумывать" или "угадывать" что-либо не вправе.

Ну и что? Вода.

> Это вопрос спорный, что там требует горючего и в какой мере. Конечно, перемещение заряженной частицы в область с повышенным потенциалом требует затрат энергии. Но если отвлечься от этого, то сам принцип работы ионного насоса вполне соответствует Демону Максвелла: когда частица попадает в дырку с одной стороны, она там фиксируется таким образом, что может выскочить только в другую сторону. С какой энергией она выскочит - это уже вопрос технической реализации. В принципе механика позволяет организовать процесс ее взаимодействия с клапаном таким образом, что клапану никакую энергию при этом частица не передаст.

Эпрос, ты понимаешь что ионы перетаскиваються на другую часть перегородки химическими (возможно электростатическими возможно и нет) силами, то есть происходит в некоотором роде химическая реакция. Очевидно, что это происходит только в присутсвии горючего, которое переходит из одной формы в другую (в форму с энергией соответствующей более высокой энтропии). Нельзя это называть демоном Максвелла!

Нервы играют важнейшую роль в жизни организма и как только они теряют возможность передовать сигналы (горючее исчерпалось) происходит необратимая смерть. Нервы в голове очень плотно запакованы и удельный запас горючего меньше чем в других частях тела. Именно поэтому мозг и умирает первым.


> Да, как теоретическая модель Демон Максвелла, это вечный двигатель второго рода. Давайте вспомним, почему он тоже назван "вечным" (как и двигатель первого рода). Как известно, энергия никуда не пропадает: совершив "полезную работу", мы фактически просто рассеяли соответствующее количество энергии (автомобиль разогнался, но в конце концов за счет трения рассеял всю свою энергию по дороге и по воздуху). Вечный двигатель второго рода - это такая штука, которая позволила бы эту энергию "собрать" и использовать повторно. Вот в этом бесконечном повторном использовании энергии и заключается абсурд. Нужно просто понять, почему реальные конструкции, сконструированные по принципу Демона Максвелла, на это не способны.

Нет. Вечный двигатель второго рода - это такая штука, которая позволяет преобразовывать внутреннюю энергию в полезную работу. Чтобы Демон Максвела свести к такому двигателю необходимо построить цикл в результате которого состояния сосуда с демоном не изменяется - можно добавить поршень и тепловой резервуар энергия которого и будет (вернее не будет) переходить в работу.

> А что касается макроскопических моделей, то вовсе не факт, что в них невозможно получить работу, используя внутреннюю энергию системы. Возьмите объекты покрупнее, чем пыль. Наример, систему из быстро движущихся по столу бильярдных шаров. Поставьте в середине стола множество маленьких перегородочек. А теперь следите и быстро убирайте перегородочку в тот, момент когда шар из правой половины переходит в левую половину. Шары слева, естественнО, будут от перегородки всегда отражаться. Действия по перемешению перегородочек не требуют затрат энергии - только быстроты реакции. Получился полный макроскопический аналог Демона Максвелла. А после того, как все шары соберутся слева, можно поместить вместо отдельных перегородочек тяжелую балку не колесиках. Стукаясь об нее, шары будут передавать ей импульс. В конце концов она разгонится т.е. приобретет кинетическую энергию за счет только внутренней энергии системы шаров.

Соответственно эту историю про биллиард я воспринят как шутку, смысл которой все же не понял.


> Что касается демона Максвелла, то мы немного отошли от твоего, и по видимому правильного, определения. Тем не менее обсуждение не теряет смысла. Я, кстати, утверждал, что если б микроорганизмы смогли сделать демон Максвелла, то они б уже давно использовали вечный двигатель второго рода, а не только фотосинтез как основы жизни (источник низкой энтропии).

с этим согласен. Хотя ты же говорил о малых числах. Помня об этом Дарвина в серьез можно и не принимать.


> Спор наш с эпросом, как я считаю, только о настоящем смысле 2-го закона термодинамики. Повторяю в чем мы конкретно расходимся: из моей позизии следует, что энтропия может уменьшаться, но происходит это реже чем её увеличение (о чем кстати и говорит флуктуационная теорема). По эпросу же энтропия уменьшаться не может НИКОГДА, так как 2-ой закон истекает из четкого принципа “не увеличения/уменьшения информации”. Это было понятно с самого начала - почитай самые первые посты.

Хорошо. Давай еще раз о 2-ом законе. Можно предложить две формулировки:

1. Превращение внутренней энергии в полезную работу без изменения чего-то еще ИЛИ передача температуры от холодного к теплому без изменения чего-то еще ИЛИ уменьшение энтропии состояния системы крайне маловероятны.

2. Превращение внутренней энергии в полезную работу без изменения чего-то еще ИЛИ передача температуры от холодного к теплому без изменения чего-то еще ИЛИ уменьшение энтропии состояния системы невозможны.

С одной стороны разницы нет. Точнее разница спрятана в различной трактовке слов "энтропия", "полезная работа" и соответственно "температура". Оставляя в покое температуру можно, назвав эти утверждения идентичными, переписать их так:

1. Превращение внутренней энергии в работу без изменения чего-то еще ИЛИ уменьшение энтропии состояния системы крайне маловероятны.

2. Превращение внутренней энергии в полезную работу без изменения чего-то еще ИЛИ уменьшение объективной энтропии состояния системы невозможны.

Теперь надо только выяснить чем отличается просто работа от полезной работы и просто энтропия от объективной энтропии.

Просто работа. Если повезет, то закрыв перегородку можно обнаружить разность давлений и получить работу. Это и есть просто работа. Что бы вычислить полезную работу, надо усреднить по возможным конечным состояниям (не по времени, unabashed!) Если же хочешь получить полезную работу в другой похожей системе, то надо добавить систему слежения, которая требует энергии, нагревается и т.п. Короче предполагается (постулируется) что этого сделать нельзя. Не знаю есть ли лучшее этому "доказательство" чем отсутствие микроорганизмов черпающих энергию от тепла мирового океана.

Так же и с энтропией. Объективную энтропию можно получить из просто энтропии усредняя ее по всем возможным конечным состояниям.

С другой стороны, изначально, я считал что эти две трактовки несколько различны. Первая - это просто следствие расчета вероятности состояния, а вторая - фундаментальный закон. Таким образом, для меня вопрос состоит в следующем: можно ли показать что усредненная по всем возможным конечным состояниям энтропия уменьшаться НЕ МОЖЕТ. Если да, то и во 2-ой трактовке 2-ой закон не является фундаментальным.


...

> Ну вот! Эпрос, утверждает что информация сохраняется, но в то же время количество информации это cлучайная величина!

> > Но в то же время я предлагаю вернуться в область его [принципа] применимости.

> которую ты сам придумал

> > нарушить принцип мы сможем только если согласимся принимать информацию из неопределенных источников.

> Сильно сказано!!

...

> Грандиозно! Этот человек до сих пор думает, что формула ln(взвешенная_сумма_состояний) выдает случайные числа!

Знаешь, unabashed, я уже устал с тобой ходить по одному и тому же кругу.

Я тебе пытаюсь доказать, что за каждым утверждением должна стоять строгая математическая формулировка. А когда я привожу вслед за своим утверждением его математическую формулировку в терминах теории вероятностей, теории информации или физической модели объекта, ты ее спокойно игнорируешь и продолжаешь высмеивать мое утверждение на основании того, что оно не соответствует твоим собственным, якобы "очевидным", утверждениям.

Я бы и рад принять "общепримиряющую" позицию stubbornа, что в каждой из точек зрения есть рациональное зерно. Но в твоей позиции я его не могу разглядеть. По одной простой причине: твои утверждения - это просто красивые фразы, конкретное содержание которых ты почему-то упорно отказываешься определить. Кому-то эти фразы могут нравиться, кому-то - нет. Подобно тому, как могут нравиться или не нравиться такие фразы, как "Мир - совершенен", "Жизнь - страдание" и т.п.

Так и мне может нравиться или не нравиться, например, твое утверждение, что "система с большей вероятностью переходит в состояние с большей энтропией". Но суть не в этом, а в том, как ты конкретно будешь считать эту вероятность в конкретной задаче? Будь добр предоставить модель. А иначе все, что мне остается, это вернуться к предположению о Господе Боге, который наугад бросает дротик в пространство возможных состояний.

> Ладно, что такое флуктуация? Это случайное отклонение от какой-то средней величины. Я так понимаю, что ты утверждаешь, что эта средняя величина есть истинная энтропия которая строго растет (в соответствии с твоим принцыпом информации).

Определение энтропии (как ты выразился "истинной" энтропии) известно. Она однозначно определяется распределением вероятностей по микросостояниям. Вроде ты больше против этого не возражаешь? Чтобы понять, растет она или нет со временем, нужно рассмотреть модель эволюции системы. Физика именно такими моделями и занимается: есть уравнения классической механики, квантовой механики, теории поля и т.д. Все они описывают эволюцию состояния системы со временем. То, что мы получим в результате, будет чисто теоретический вывод.

Если нам известна методика оценки величины, мы можем точно так же теоретически рассчитать распределение вероятностей величины этой оценки. Естественно, при каждой конкретной оценке мы будем получать конкретные значения - реализации случайной величины. Флуктуация - это отклонение реализации от среднего значения (математического ожидания) величины.

Но, наверное, бесполезно повторять тому, кто не слушает.

> Я утверждаю, что ты не прав. Нет такой средней энтропии которая строго не убывает и не является константой.

Т.е. ты утверждаешь, что величины, которой дал определение еще Больцман, "не существует"? Или ты имеешь в виду, что эта величина не является строго неубывающей? Ну, в модели Демона Максвелла она действительно убывает. Но в большинстве "нормальных" моделей является именно строго неубывающей. Это не мое эстетическое восприятие реальности: можешь взять пример ящика с молекулами и проверить точным расчетом.

> Одно подтверждение простое. Во-первых если мы возьмем определение матожидания, то нам надо бесконечный интервал усреднения. Это нам даст среднию энтропию которая вообще никогда не меняется. Для любого другого метода усреднения (не только простейщего усреднения по интервалу времени) не существует такого среднего котороe всегда не убывает и не константа.

stubborn тебе правильно заметил, что усреднять надо не по времени, а по возможным состояниям. Эквивалентность усреднения по времени и по состояниям связана с понятием эргодичности процесса и является еще большИм вопросом. А вот усреднение по состояниям - это просто теоретико-вероятностное определение математического ожидания.

> Можно точно посчитать на бумаге вероятность выпадания орла исходя из формы монеты.

Как это, как это? Вообще-то, если говорить о реальной монете, то конкретный результат ее выпадения в значительной мере определяется условиями броска. Если бы бросальщик был достаточно ловок, он, пожалуй, мог бы заранее предвидеть результат: до квантовой неопределенности здесь еще далеко.

Когда ты рассчитываешь вероятность, исходя из формы монеты, ты на самом деле исходишь и из других предположений. Например, в простейшем случае на основании симметричности монеты можно сформулировать предположение о равновероятности. Нетривиально, правда? В более сложных случаях мы считаем равновероятными другие события, например, начальные состояния монеты в некотором пространстве состояний.

> Вычисление энтропии эквивалентно именно такому расчёту на бумаге, а не бросанию монеты. Аналогично, можно точно сказать чему равна энтропия газа в сосуде объемом V, температуре Т и количеству молекул N - не надо ничего мерять.

Ага, только если добавить сюда предположение о том, что состояние газа равновесное, т.е. мы наблюдаем равномерное распределение по занимаемому фазовому объему.


> > Да, как теоретическая модель Демон Максвелла, это вечный двигатель второго рода. Давайте вспомним, почему он тоже назван "вечным" (как и двигатель первого рода). Как известно, энергия никуда не пропадает: совершив "полезную работу", мы фактически просто рассеяли соответствующее количество энергии (автомобиль разогнался, но в конце концов за счет трения рассеял всю свою энергию по дороге и по воздуху). Вечный двигатель второго рода - это такая штука, которая позволила бы эту энергию "собрать" и использовать повторно. Вот в этом бесконечном повторном использовании энергии и заключается абсурд. Нужно просто понять, почему реальные конструкции, сконструированные по принципу Демона Максвелла, на это не способны.

> Нет. Вечный двигатель второго рода - это такая штука, которая позволяет преобразовывать внутреннюю энергию в полезную работу. Чтобы Демон Максвела свести к такому двигателю необходимо построить цикл в результате которого состояния сосуда с демоном не изменяется - можно добавить поршень и тепловой резервуар энергия которого и будет (вернее не будет) переходить в работу.

Я, в общем-то, о том же говорю. Преобразовать внутреннюю энергию окружающей среды в полезную работу - это примерно и означает "собрать" рассеянную ранее энергию. Абсурд состоит в том, что это позволило бы бесконечно совершать полезную работу, ничего не меняя в окружающей среде.

С Демоном Максвелла такой цикл можно легко вообразить: Поставить демон "всасывающей" стороной в атмосферу, а с другой стороны установить турбину.

> Соответственно эту историю про биллиард я воспринят как шутку, смысл которой все же не понял.

Можно и как шутку. Смысл в том, что в макроскопическом случае демон, очевидно, работает. И не очевидно почему он не будет работать и в микроскопическом случае. Ну, такие вещи, как квантовые эффекты, конечно будут влиять. Но в принципе не видно причин, по которым нанотехнологии не позволили бы нам передвигать отдельные молекулы. И непонятно, почему "передвигатель" (который, конечно, тоже состоит из молекул) не может быть достаточно жесткой конструкцией для того, чтобы не слишком сильно обмениваться энергией с передвигаемыми молекулами (по крайней мере в среднем).


> stubborn тебе правильно заметил, что усреднять надо не по времени, а по возможным состояниям. Эквивалентность усреднения по времени и по состояниям связана с понятием эргодичности процесса и является еще большИм вопросом.

Постулировали, что средние по времени равны средним по траектории, и все дела :)


> Можно и как шутку. Смысл в том, что в макроскопическом случае демон, очевидно, работает. И не очевидно почему он не будет работать и в микроскопическом случае. Ну, такие вещи, как квантовые эффекты, конечно будут влиять. Но в принципе не видно причин, по которым нанотехнологии не позволили бы нам передвигать отдельные молекулы. И непонятно, почему "передвигатель" (который, конечно, тоже состоит из молекул) не может быть достаточно жесткой конструкцией для того, чтобы не слишком сильно обмениваться энергией с передвигаемыми молекулами (по крайней мере в среднем).

Очень спорный вопрос. На макроуровне демон работает потому, что наблюдение за "частицами" не меняет существенно ни их состояния, ни состояния демона. Для молекул это очевидно не так. Живые организмы понижают свою энтропию не за счет реализации демона М., а благодаря потреблению энергии из окружающей среды. Известны аналогичные примеры для неживых систем (ячейки Бенара).


> Можно и как шутку. Смысл в том, что в макроскопическом случае демон, очевидно, работает. И не очевидно почему он не будет работать и в микроскопическом случае. Ну, такие вещи, как квантовые эффекты, конечно будут влиять. Но в принципе не видно причин, по которым нанотехнологии не позволили бы нам передвигать отдельные молекулы. И непонятно, почему "передвигатель" (который, конечно, тоже состоит из молекул) не может быть достаточно жесткой конструкцией для того, чтобы не слишком сильно обмениваться энергией с передвигаемыми молекулами (по крайней мере в среднем).

Ну это просто в полном согласии с unabashedом - он такого же мнения. Вопрос сводится к банальному "храповику с собачкой". Или (пришла еще такая мысль) к вопросу чем отличается температура от кинетической энергии.

В макроскопическом случае я бы не называл это "демоном". Кто угодно может так работать - ничего демонического в этом нет.


> Так и мне может нравиться или не нравиться, например, твое утверждение, что "система с большей вероятностью переходит в состояние с большей энтропией". Но суть не в этом, а в том, как ты конкретно будешь считать эту вероятность в конкретной задаче? Будь добр предоставить модель. А иначе все, что мне остается, это вернуться к предположению о Господе Боге, который наугад бросает дротик в пространство возможных состояний.

unabashed, ну объясни как считать твою энтропию, в чем проблема? А то у стороннего наблюдателя может сложиться впечатление что и вправду нельзя.

> Т.е. ты утверждаешь, что величины, которой дал определение еще Больцман, "не существует"? Или ты имеешь в виду, что эта величина не является строго неубывающей? Ну, в модели Демона Максвелла она действительно убывает. Но в большинстве "нормальных" моделей является именно строго неубывающей. Это не мое эстетическое восприятие реальности: можешь взять пример ящика с молекулами и проверить точным расчетом.

Он имеет ввиду флуктуации, разве не ясно. К чему демонизм вспоминать?

> Я тебе пытаюсь доказать, что за каждым утверждением должна стоять строгая математическая формулировка.

Если Вы хотели сказать "за каждым строгим утверждением должна стоять строгая математическая формулировка", то с этим и так все согласны :)


> Знаешь, unabashed, я уже устал с тобой ходить по одному и тому же кругу.

Я тоже устал стараться понять как можно применить твою теорию неубывающей энтропии к некоторым простым примерам. Эпрос если твоя теория не может объяснить конкретные примеры, то даже если она исходит из якобы “самоочевидных" для тебя принципов, она всё равно не правильная.

> Я тебе пытаюсь доказать, что за каждым утверждением должна стоять строгая математическая формулировка. А когда я привожу вслед за своим утверждением его математическую формулировку в терминах теории вероятностей, теории информации или физической модели объекта, ты ее спокойно игнорируешь и продолжаешь высмеивать мое утверждение на основании того, что оно не соответствует твоим собственным, якобы "очевидным", утверждениям.

Каждое утверждение прожде чем выражено в математической форме должно не противоречить логике.

> Я бы и рад принять "общепримиряющую" позицию stubbornа, что в каждой из точек зрения есть рациональное зерно. Но в твоей позиции я его не могу разглядеть. По одной простой причине: твои утверждения - это просто красивые фразы, конкретное содержание которых ты почему-то упорно отказываешься определить. Кому-то эти фразы могут нравиться, кому-то - нет. Подобно тому, как могут нравиться или не нравиться такие фразы, как "Мир - совершенен", "Жизнь - страдание" и т.п.

Моё утверждение как раз достаточно просто - формула Больцмана для энтропии.

> Так и мне может нравиться или не нравиться, например, твое утверждение, что "система с большей вероятностью переходит в состояние с большей энтропией". Но суть не в этом, а в том, как ты конкретно будешь считать эту вероятность в конкретной задаче? Будь добр предоставить модель. А иначе все, что мне остается, это вернуться к предположению о Господе Боге, который наугад бросает дротик в пространство возможных состояний.

Я представлял легко понятное объяснение в терминах объёма области фазового пространства. Что может быть неочевидного в утверждении, что “при практически случайном блуждании по объёму вероятность найти систему в малой части этого объёма мала"? Это обычная логика. Эпрос, это только ты объясняешь вещи так, что много подразумеваемого остается не сказанным.

> Определение энтропии (как ты выразился "истинной" энтропии) известно. Она однозначно определяется распределением вероятностей по микросостояниям. Вроде ты больше против этого не возражаешь? Чтобы понять, растет она или нет со временем, нужно рассмотреть модель эволюции системы. Физика именно такими моделями и занимается: есть уравнения классической механики, квантовой механики, теории поля и т.д. Все они описывают эволюцию состояния системы со временем. То, что мы получим в результате, будет чисто теоретический вывод.

Ну тут надо намного больше чёткости. Если чёткости нет, то согласиться не могу так как не знаю что ты имеешь в виду.

> Если нам известна методика оценки величины, мы можем точно так же теоретически рассчитать распределение вероятностей величины этой оценки. Естественно, при каждой конкретной оценке мы будем получать конкретные значения - реализации случайной величины. Флуктуация - это отклонение реализации от среднего значения (математического ожидания) величины.

> Но, наверное, бесполезно повторять тому, кто не слушает.

Формула Больцмана даёт конкретную величину, которая и есть энтропия. Эта величина не оценка, а точное значение: ошибки измерения отсутствуют. Сколько раз надо это повторять? Это кто из нас не умеет слушать?

> > Я утверждаю, что ты не прав. Нет такой средней энтропии которая строго не убывает и не является константой.

> Т.е. ты утверждаешь, что величины, которой дал определение еще Больцман, "не существует"? Или ты имеешь в виду, что эта величина не является строго неубывающей? Ну, в модели Демона Максвелла она действительно убывает. Но в большинстве "нормальных" моделей является именно строго неубывающей. Это не мое эстетическое восприятие реальности: можешь взять пример ящика с молекулами и проверить точным расчетом.

Существует, но она строго не растёт, а может уменьшаться.

> stubborn тебе правильно заметил, что усреднять надо не по времени, а по возможным состояниям. Эквивалентность усреднения по времени и по состояниям связана с понятием эргодичности процесса и является еще большИм вопросом. А вот усреднение по состояниям - это просто теоретико-вероятностное определение математического ожидания.

stubborn пытался спасти твоё утверждение, что существует, некая неубывающая энтропия, выдвинув предположение, что мы можем усреднять по всем микросостояниям какого-то макросостояния. Увы, такое усреднение не спасает, не говоря уже о его сомнительном смысле.

> > Можно точно посчитать на бумаге вероятность выпадания орла исходя из формы монеты.

> Как это, как это? Вообще-то, если говорить о реальной монете, то конкретный результат ее выпадения в значительной мере определяется условиями броска. Если бы бросальщик был достаточно ловок, он, пожалуй, мог бы заранее предвидеть результат: до квантовой неопределенности здесь еще далеко.

Ты думаешь я настолько глуп, что не знаю, что результат выпадания зависит от начальных условий? Ты думаешь что когда все люди (даже бабки на базаре) говорят что вероятность выпадания орла 1/2 они не подразумевают усреднения по всем начальным состояниям?

> > Вычисление энтропии эквивалентно именно такому расчёту на бумаге, а не бросанию монеты. Аналогично, можно точно сказать чему равна энтропия газа в сосуде объемом V, температуре Т и количеству молекул N - не надо ничего мерять.

> Ага, только если добавить сюда предположение о том, что состояние газа равновесное, т.е. мы наблюдаем равномерное распределение по занимаемому фазовому объему.

В принципе и да и нет: зависит от того как мы определим макросостояние.


> unabashed, ну объясни как считать твою энтропию, в чем проблема? А то у стороннего наблюдателя может сложиться впечатление что и вправду нельзя.

Небольшая проблема у меня всё-таки с пониманием, что такое разбиение фазового пространства “по умолчанию". Я склоняюсь к идее, что в каждом процессе где энтропия изменяется, есть некоторые параметры (макропараметры) которые нам позволяют судить о макро эволюции системы. Например, для нашего сосуда разделенного на две половины очевидными макропараметрами являються давления в правой и левой половинах. Я склоняюсь к постулированию того факта, что "в каждом процессе, к которому применим 2-й закон термодинамики, существуют такие характеристические макропараметры". Эти макропараметры обеспечивают нас разбиением (форматированием, как ты называешь) фазового пространства “по умолчнанию". Из этих макропараметров “по умолчанию" мы можем авоматически разбить фазовое пространство на макросостояния. Например для нашего двойного сосуда с газом каждое макросостояние определяется значением давления лежащими в каких-то пределах, например одно макросостояние может соответствовать давлению от 0 до 0.001 МПа, второе от 0.001 до 0.002 МПа. Я так же думаю что энтропия полученная в эксперимнтах, типа Гиббса, применяет стандартные макропараметры {давление, температура, объём} и интервал в одну единицу.

Второе что я думаю: какие бы мы не выбирали внешние параметры, которые мы можем визуально оценить и которые изменяються в процессе эволюции системы, типа количество молекул спарва и слева, то всё равно полученное разбиение фазового пространства будет иметь нужное свойство фрактальности. Так же мы можем, в принципе, в качестве макропараметра использовать продукт какого-то алгоритма который будет нам различать более экзотические макросотояния типа “яйцо целоё. Надо осозновать, что полученная энтропия зависит от разбиения фазового пространства. Да, энтропия является немного относительной величиной, которая например может зависесть от единиц или от того насколько мелко мы разбиваем фазовое пространство.

Это всё я говорю для того чтоб как-то разделаться с твоим ужасным разбиением в котором энтропия почти всегда уменьшается. Всё остальное тривиально.

Расскажу про вычисление энтропии для классического случая газа.

1) Разбиваем фазовое проcтранство на области, так что каждая точка принадлежит одной области. Каждая область фазового пространства это какое-то макросостояние системы. То есть мы определили макросостояния системы. Желательно не использовать каких-то прочудливых искусcтвенных разбиений.

2) Эволюция системы это движение точки по фазовому пространству. Это движение определяется уравнениями Гамильтона но выглядит практически случайно. Что точно известно это то, что кривая эволюции очень запутанная. Существует большая сложность в представлении пространств большой размерности, к сожалению. К тому же топология в таких пространствах просто невообразимо сложная по сравнению с тем к чему мы привыкли в ЗD.

3) Наш газ имеет конкретную энергию которая не изменяется. Эта энергия определяет в фазовом пространстве гиперповерхность по котороя система будет двигаться в процессе эволюции. Эта гиперповерхность имеет на одно измерение меньше чем фазовое пространство. Эта гиперповерхность в случае малой потенциально энергии взаимодействия молекул является почти гиперсферой.

4) Наши области макросостояний делят эту гиперповерхность на куски. Энтропия макросотояния это логарифм объёма соответствующего куска. Это и есть формула Больцмана для газа в понятной формулировке без умалчиваний.

Если мы запускаем систему из макросостояния с малой энтропией, например, когда все молекулы в правой части сосуда, то соответствующая область фазового пространства очень мала. Очевидно, что вероятно, что система уйдёт из этой области и перейдёт в большую область. Но для этой новой области есть ещё бOльшая область по соседству, которая нaпример может быть в 100 раз больше. Конечно, система скорей перейдёт в эту ещё бOльшую область, чем вернёться в начальную, очень маленькую область. И так далее. Когда система пришла в равновесие, то она уже в самой большой области. Конечно очень маловероятно, что она может обратно вернуться в самую исходную область которая, например, может быть в 10^20 раз меньше области равновесия, но в принципе это возможно (боле того, теорема Пуанкаре доказывает, что это гогда-то обязательно произойдёт).

Таким образом система во время своей эволюции преходит из одного макросостояния в другое. У каждого макросостояния есть своя энтропия. Cистема просто перебирает набор макросостояний, а значит и набор энтропий. Энтропия не есть свойство системы, а свойство макросостояния. Когда говорят, что система имеет какую-то конкретную энтропию, то это значит что система находиться в макросостоянии с этой энтропией.

Таким образом можно фактически сказать что 2-й закон термодинамики следует из законов Ньютоновской механики и просто логики (или математики - кому как угодно).

Замечание. Я думал что в фазовом пространстве надо ещё учитывать функцию распределения, но похоже что все микросостояния на гиперповерхности равновероятны. Я не уверен, но мне кажется, что это следует из теоремы Лиувилля (о сохранении фазового объёма).

Можешь ещё взглянуть на интересную сказку про энтропию http://itf.fys.kuleuven.ac.be/~christ/pub/fablejoel.ps



Черезчур много текста как по мне. Об "ужасном разбиении" можно пока забыть, я согласен что реальное макросостояние принципиально можно определить. Опять же далась тебе эта сфера (сфера же будет только для импульсного подпространства) - можно ведь обойтись и проекцией на плоскоть нулевых импульсов. Забыли про импульсы - есть только 3N координат ограниченных ящиком. Я хотел что б ты сформулировал как-то так: N-0 (слева-справа) - такой-то объем, такая энтропия..,
N/2-N/2 - самый большой объем, но не намного больше чем (N/2-1)-(N/2+1).., соответственно легко показать что вероятность флуктуации от N/2 до (N/2-n) быстро уменьшается с ростом n... Ну ладно, мне это как бы понятно, я хотел что б ты сформулировал для eprosa.

Еще мне не нравятся эти термины "выглядит практически случайно" или "кривая эволюции очень запутанная". Кому какое дело как оно выглядит? Элемент случайности же (в классике) не в этом, а в том что "стартуем" мы не из микросостояния, а из начального макросостояния, т.е. начальное микросостояние знаем с точностью до начального макросостояния - ты же это и говорил. Т.е. я могу сделать вывод, что под "запутаностью траектории" ты подразумеваешь что очень быстро траектории выходящие из двух соседних микросостояний разойдутся в разные концы фазового объема, да?

За ссылку спасибо. Завтра почитаю.


> сфера же будет только для импульсного подпространства

Да, точно, забыл сказать.

> Еще мне не нравятся эти термины "выглядит практически случайно" или "кривая эволюции очень запутанная". Кому какое дело как оно выглядит?

Ну по крайней мере это как-то говорит о том что кривая не имеет всегда какой-то регулярный характер, например зацикливается.

> елемент случайности же (в классике) не в этом, а в том что "стартуем" мы не из микросостояния, а из начального макросостояния, т.е. начальное микросостояние знаем с точностью до начального макросостояния - ты же это и говорил.

В принципе, да.

> Т.е. я могу сделать вывод, что под "запутаностью траектории" ты подразумеваешь что очень быстро траектории выходящие из двух соседних микросостояний разойдутся в разные концы фазового объема, да?

Я это не подразумевал, но такая запутанность действительно следует из быстрого расхождения траекторий, которое часто имеет место. Есть даже такое понятие как Колмогоровская энтропия, или К-энтропия, которая характеризует скорость расхождения траекторий. Интересно, что может показаться, что расхождение траекторий вроде противоречит постоянству фазового объёма (теорема Лиувилля), но на самом деле любая изначально компактная область фазового пространства при эволиуции практически случайно разлазится во все стороны и вскоре почти покрывает всё фазовое пространство, но объём этой области остается постоянным.


> Таким образом можно фактически сказать что 2-й закон термодинамики следует из законов Ньютоновской механики и просто логики (или математики - кому как угодно).

Из механики не следует. Гипотеза о равномерном заполнения гиперповерхности, необходимая для обоснования статистики, не доказана. Первые попытки доказательства, сделанные еще Больцманом, были опровергнуты как противоречащие механике.

> Замечание. Я думал что в фазовом пространстве надо ещё учитывать функцию распределения, но похоже что все микросостояния на гиперповерхности равновероятны. Я не уверен, но мне кажется, что это следует из теоремы Лиувилля (о сохранении фазового объёма).

Нет, не следует. См. выше. Эргодическая гипотеза просто постулируется.


> > Таким образом можно фактически сказать что 2-й закон термодинамики следует из законов Ньютоновской механики и просто логики (или математики - кому как угодно).

> Из механики не следует. Гипотеза о равномерном заполнения гиперповерхности, необходимая для обоснования статистики, не доказана. Первые попытки доказательства, сделанные еще Больцманом, были опровергнуты как противоречащие механике.

А в чём проблема? Она заполнена или равномерно или нет. Легко проверить на компутере.

> > Замечание. Я думал что в фазовом пространстве надо ещё учитывать функцию распределения, но похоже что все микросостояния на гиперповерхности равновероятны. Я не уверен, но мне кажется, что это следует из теоремы Лиувилля (о сохранении фазового объёма).

> Нет, не следует. См. выше. Эргодическая гипотеза просто постулируется.

Интересно. Мне почему то кажется что из теоремы Пуанкаре, о том что существует линия проходящая произвольно близко к двум произвольным точкам в фазовом пространстве и из теоремы Лиувилля следует, что распереление по всем микросостояниям равновероятно. Что если рассуждать так? Допустим у нас есть маленькая область где распределение можно считать постоянным. Берём кривую из этой области. Эта кривая проходит произвольно близко к любой точке фазового пространства, так же эта кривая переносит с собой маленький кусочек фазового пространства без изменения объёма... блин действиетльно не очевидно.

Тем не менее наверно возможно легко проверить эту гипотезу численно.


> Очень спорный вопрос. На макроуровне демон работает потому, что наблюдение за "частицами" не меняет существенно ни их состояния, ни состояния демона. Для молекул это очевидно не так. Живые организмы понижают свою энтропию не за счет реализации демона М., а благодаря потреблению энергии из окружающей среды. Известны аналогичные примеры для неживых систем (ячейки Бенара).

Да, спорный, для нас. Интересно является ли он спорным и для специалистов в этой области.

Я бы лучше сказал что живые организмы понижают свою энтропию за счет повышения энтропии внешней системы. Здесь мы говорили об энтропии изолированной системы. Именно на нее распостраняется 2-й закон. В чем проблема уменьшения ентропии неизолированной системы - dQ может быть как положительна так и отрицательна? То же самое и с ячейками. Кроме того как вообще вычислить энтропию ячеек, с каким состоянием сравнивать?


> > Можно и как шутку. Смысл в том, что в макроскопическом случае демон, очевидно, работает. И не очевидно почему он не будет работать и в микроскопическом случае. Ну, такие вещи, как квантовые эффекты, конечно будут влиять. Но в принципе не видно причин, по которым нанотехнологии не позволили бы нам передвигать отдельные молекулы. И непонятно, почему "передвигатель" (который, конечно, тоже состоит из молекул) не может быть достаточно жесткой конструкцией для того, чтобы не слишком сильно обмениваться энергией с передвигаемыми молекулами (по крайней мере в среднем).

> Очень спорный вопрос. На макроуровне демон работает потому, что наблюдение за "частицами" не меняет существенно ни их состояния, ни состояния демона. Для молекул это очевидно не так. Живые организмы понижают свою энтропию не за счет реализации демона М., а благодаря потреблению энергии из окружающей среды. Известны аналогичные примеры для неживых систем (ячейки Бенара).

Сомнительно, что
"...наблюдение за "частицами" не меняет существенно ни их состояния, ни состояния демона".
Вопрос о демоне Максвелла рассматривал Л.Бриллюен (кажется, в книге "Наука и теория информации" или в "Научная неопределенность и информация"). Логика была примерно такая. Чтобы узнать, с какой скоростью летит молекула, надо, например, ее осветить. Подсчет Бриллюена приводил его к выводу, что энергия на подсветку не меньше той, которую можно выиграть.


> Интересно. Мне почему то кажется что из теоремы Пуанкаре, о том что существует линия проходящая произвольно близко к двум произвольным точкам в фазовом пространстве и из теоремы Лиувилля следует, что распереление по всем микросостояниям равновероятно. Что если рассуждать так? Допустим у нас есть маленькая область где распределение можно считать постоянным. Берём кривую из этой области. Эта кривая проходит произвольно близко к любой точке фазового пространства, так же эта кривая переносит с собой маленький кусочек фазового пространства без изменения объёма... блин действиетльно не очевидно.

Тебе правильно кажется. То что ты назвал теоремой Пуанкаре и есть эргодическая гипотеза, наверно в формулировке Пуанкаре, (непонятно только зачем две точки) - так что ничего доказывать и не надо :) Я считал что теорема Пуанкаре для дискретных систем, о том что система обязательно вернется в точку из которой вышла, т.е. о замкнутости траекторий, но может это и не так. А теорема Лиувиля формулируется исходя из предположения об эквивалентности усреднений по времени и по состояниям, т.е. из эргодической гипотезы, и утверждает что при движении вдоль траектории функция распределения постоянна. Т.е. если исходить из того что система побывает во всех микросостояниях, то все они равновероятны, и наоборот.

Еще не могу не процитировать японцев (просто вывалило на ergodic hypothesis):

Thus, according to Dr. Tomonaga, the Ergodic Hypothesis has accomplished three things: First, it has enabled us to use only mechanical concepts when we make "probabilistic" calculations within the kinetic theory. Secondly, by means of that, it has enabled us to separate a genuine probabilistic part from the basic mechanical part. And thirdly and finally, it has enabled us to justify the former by means of the latter.

http://www.bun.kyoto-u.ac.jp/~suchii/reduction8.html


> > Интересно. Мне почему то кажется что из теоремы Пуанкаре, о том что существует линия проходящая произвольно близко к двум произвольным точкам в фазовом пространстве и из теоремы Лиувилля следует, что распереление по всем микросостояниям равновероятно. Что если рассуждать так? Допустим у нас есть маленькая область где распределение можно считать постоянным. Берём кривую из этой области. Эта кривая проходит произвольно близко к любой точке фазового пространства, так же эта кривая переносит с собой маленький кусочек фазового пространства без изменения объёма... блин действиетльно не очевидно.

> Тебе правильно кажется. То что ты назвал теоремой Пуанкаре и есть эргодическая гипотеза, наверно в формулировке Пуанкаре, (непонятно только зачем две точки) - так что ничего доказывать и не надо :) Я считал что теорема Пуанкаре для дискретных систем, о том что система обязательно вернется в точку из которой вышла, т.е. о замкнутости траекторий, но может это и не так. А теорема Лиувиля формулируется исходя из предположения об эквивалентности усреднений по времени и по состояниям, т.е. из эргодической гипотезы, и утверждает что при движении вдоль траектории функция распределения постоянна. Т.е. если исходить из того что система побывает во всех микросостояниях, то все они равновероятны, и наоборот.

Теорема Лиувилля утверждает сохранение фазового объема. Иногда говорят, что она следует из того, что преобразование, переводящее точки фазового пространства из одного момента времени в другой, - унитарно, иногда говорят обратное, зависит от способа изложения.

Теорема Пуанкаре, в свою очередь, следует из теоремы Лиувилля (с дополнительными предположениями) и говорит, что любая точка фазового пространства с эволюцией возвращается в как угодно малую окрестность своего начального положения. Строгие формулировки и элементарные доказательства могут быть найдены у Арнольда в "Математических методах классической механики".

Эргодическая гипотеза (ЭГ) может быть сформулирована несколькими способами.

Первый часто формулируют как заметание фазовой кривой всего фазового пространства или, иначе, отсутствие нетривиальных (ненулевой меры) инвариантных подмножеств фазового пространства.

Второй - среднее по объему равно среднему по времени. Такая формулировка вызывает много нареканий однако ее можно улучшить следующим образом.

Пусть {x(t), p(t)} - набор переменных, полностью описывающий состояние системы. Далее, система называется эргодической, если предел

F = lim_{T \to \infty} 1/T \int_0^T F({x(t), p(t)}) dt

существует и не зависит от {x(0), p(0)}. Здесь тоже надо добавить, что за исключением нач. состояний в подмножестве меры нуль.

ЭГ в первой формулировке влечет за собой и вторую, по всей видимости справедливо и обратное, но надо заметить, что обратную задачу поставить нелегко. Короткое обсуждение точно есть в первом томе "Методов современной математической физики" Саймона и Рида.

Очевидно, что в общем случае ЭГ не верна, однако доказано (Синаем?), что она справедлива для системы твердых шаров, скорее всего существуют и другие системы. С другой стороны вроде бы доказано, что она несправедлива для каких-то важных систем, для которых тем не менее статфизика работает (здесь надо искать).

Популярное введение в проблематику (критика обоснований статфизики и, в частности, эргодической гипотезы) есть на gubin.narod.ru
Читать, правда, нужно с известной долей критицизма поскольку автор несколько перегибает с популярностью.


Физика в анимациях - Купить диск - Тесты по физике - Графики on-line

Реклама:
Rambler's Top100