АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Энтропия и вероятность

Читайте также:
  1. а) Находим границы, в которых с вероятностью 0,9946 заключено среднее время обслуживания всех клиентов пенсионного фонда.
  2. Вероятность безотказной работы
  3. Вероятность безотказной работы
  4. Вероятность безотказной работы
  5. Вероятность её нахождения вдоль оси x(б)
  6. Вероятность наступления финансовых трудностей
  7. Вероятность отказа
  8. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях
  9. Вероятность ошибки элемента 0,1.
  10. Вероятность случайного события.
  11. Вероятность того, что деталь находится только в одном ящике, равна
  12. Вероятность. Экспонента.

 

Еще одной формулировкой второго начала термодина­мики является следующее утверждение: энтропия замк­нутой системы является неубывающей функцией, то есть при любом реальном процессе она либо возрастает, либо остается неизменной.

Понятие энтропии,введенное в термодинамику Р.Клаузиусом, носило первоначально искусственный характер. Выдающийся французский ученый А.Пу­анкаре писал по этому поводу: «Энтропия представля­ется несколько таинственной в том смысле, что величи­на эта недоступна ни одному из наших чувств, хотя и обладает действительным свойством физических вели­чин, так как, по крайней мере, в принципе, вполне под­дается измерению».

По определению Клаузиуса, энтропией называется та­кая физическая величина, приращение которой ΔS равно количеству тепла ΔQ, полученному системой, деленному на абсолютную температуру:

ΔS = ΔQ/T (1.4)

 

Статистический (вероятностный) смысл понятия эн­тропии был вскрыт Л. Больцманом в 1872 г. Для рассмот­рения этого вопроса определим важнейшие статистиче­ские понятия — микросостояние и макросостояние. С этой целью воспользуемся очень простым примером.

Рассмотрим Nчастиц, которые хаотически двигаются в «ящике». Пронумеруем частицы от 1 до N. Мыс­ленно разделим «ящик» на две половины. Микросо­стояниемрассматриваемой системы назовем любое про­извольное распределение час­тиц по двум половинам «ящи­ка». Например, если N = 4, то одному из микросостояний соответствует 1 -я и 4-я части­ца слева, а 2-я и 3-я — спра­ва. Очевидно, всего микросо­стояний 2N= 16. Важнейшим постулатом статистической физики является утверждение о равной вероятности всех микросостояний. Тогда вероят­ность каждого микросостояния равна

p = 1/2N (1.5)

В задачах статистической физики важно не то, какие частицы находятся в том или ином состоянии, а сколько таких частиц. Это приводит к новому понятию — макро­состоянию,которое в нашем примере определяется чис­лом частиц n в левой половине ящика. При этом не важ­но, какие номера имеют частицы, важно, сколько их. Оче­видно, слева может быть ни одной частицы (n = 0), одна, две, ..., Nчастиц. Значит всего возможно N + 1 различ­ных макросостояний.

 

При N > 1 число макросостояний меньше, чем число микросостояний, так как N + 1 < 2N. Значит, некоторые макросостояния реализуются несколькими микросостоя­ниями. Число этих микросостояний называется стати­стическим весомданного макросостояния.



Обозначим статистический вес символом CN(n) и со­ставим таблицу для рассматриваемого примера:

 

Макросостоя­ние n Статистиче­ский вес СN(n)

 

 

Так как все микросостояния равновероятны, то веро­ятность макросостояния PN(n)полностью определяется его статистическим весом

PN(n) = CN(n) p. (1.6)

Отсюда следует, что чем больше статистический вес макросостояния, тем больше его вероятность и наоборот.

Энтропия (по Больцману) определяется следующим образом

S=k lnP, (1.7)

 

где k — постоянная Больцмана (k = 1,38 • 10~23 Дж /К).

В рассматриваемом примере с «ящиком» значения ста­тистических весов CN(n) являются коэффициентами раз­ложения бинома Ньютона

Как известно, эти коэффициенты для разных п обра­зуют строки треугольника Паскаля

1 1

1 2 1

1 3 3 1

1 4 6 4 1

1 5 10 10 5 1

1 6 15 20 15 6 1

Каждая строка начинается и заканчивается едини­цей — это статистические веса таких макросостояний, когда в левой половине «ящика» нет ни одной или, на­оборот, находятся все Nчастиц. Второе и предпоследнее число в каждой строке равно полному числу частиц в «ящике». Это число является статистическим весом мак­росостояния, когда только одна частица находится спра­ва (или слева).

Самые большие числа в каждой строке треугольника Паскаля находятся в ее середине (для нечетного числа частиц таких чисел два, для четных - одно, но это не имеет значения). Видно, что статистический вес мак­росостояния, когда половина частиц находится справа, а половина слева, максимален. Значит, соответствующее макросостояние реализуется с наибольшей вероятностью. Но самое главное заключается в том, что для больших Nстатистический вес наиболее вероятного состояния ста­новится несоизмеримо больше, чем для макросостояния с не­большим числом частиц в одной из половин «ящика». Можно показать, что при N = 1023 даже ничтожно малое отклонение в одну миллиардную процента от макросостоя­ния с одинаковым числом частиц в каждой половине «ящи­ка» имеет вероятность е-100, то есть практически нико­гда не реализуется.

‡агрузка...

Равномерное распределение большого числа частиц по двум половинам «ящика» можно назвать неупорядо­ченным, в отличие от упорядоченного, когда в одной по­ловине ящика всего несколько частиц, а в другой поло­вине — все остальные. Таким образом, упорядоченное макросостояние— это состояние с малым статистиче­ским весом, с малой вероятностью, малой энтропией. А неупорядоченное макросостояние — это состояние с большим статистическим весом, с большой вероятно­стью, большой энтропией. Если упорядоченную систему предоставить самой себе, то она постепенно перейдет в неупорядоченное состояние, энтропия при этом увели­чится. В этом и заключается статистический смысл эн­тропии и второго начала термодинамики.


1 | 2 | 3 | 4 | 5 |


При использовании материала, поставите ссылку на Студалл.Орг (0.007 сек.)