Участник:TGX/Черновик: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
Содержимое удалено Содержимое добавлено
Нет описания правки
Метка: редактор вики-текста 2017
Метка: редактор вики-текста 2017
Строка 6: Строка 6:


=== Дискретный случай ===
=== Дискретный случай ===
Для дискретной случайный величины <math>\zeta</math>, принимающей значения <math>x_1, x_2, x_3, \ldots, x_n</math> с вероятностями <math>p_1, p_2, p_3, \ldots, p_n</math> энтропия определяется выражением{{sfn|Математическая физика. Энциклопедия|с=678}}:.
Для дискретной случайной величины <math>\zeta</math>, принимающей значения <math>x_1, x_2, x_3, \ldots, x_n</math> с вероятностями <math>p_1, p_2, p_3, \ldots, p_n</math> энтропия определяется выражением{{sfn|Математическая физика. Энциклопедия|с=678}}:.


{{EF|:|<math>H = H(p_1,p_2,p_3,\ldots,p_n) = \sum_{i=1}^{n}p_i\log\left(\frac{1}{p_i}\right) </math>,|ref=1|center=y}}
{{EF|:|<math>H = H(p_1,p_2,p_3,\ldots,p_n) = \sum_{i=1}^{n}p_i\log\left(\frac{1}{p_i}\right) </math>,|ref=1|center=y}}

Версия от 13:50, 15 мая 2017

Черновик статьи об энтропии

Энтропи́я (от др.-греч. ἐντροπία «поворот», «превращение») — теоретико-информационная мера степени неопределенности случайной величины[1]. Энтропия является мультидисциплинарным понятием и широко используется в естественных и точных науках.

Математическое определение

Дискретный случай

Для дискретной случайной величины , принимающей значения с вероятностями энтропия определяется выражением[1]:.

Свойства энтропии

Для непрерывной случайной величины

Энтропия в различных дисциплинах

Термодинамика

Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах, тогда как в необратимых — её изменение всегда положительно.

Математически энтропия определяется как функция состояния системы, определенная с точностью до произвольной постоянной. Разность энтропий в двух равновесных состояниях 1 и 2, по определению, равна приведённому количеству тепла (), которое надо сообщить системе, чтобы перевести ее из состояния 1 в состояние 2 по любому квазистатическому пути[2]:

Так как энтропия определена с точностью до произвольной постоянной, то можно условно принять состояние 1 за начальное и положить . Тогда

здесь интеграл берется для произвольного квазистатического процесса. Дифференциал функции имеет вид

Энтропия устанавливает связь между макро- и микро- состояниями. Особенность данной характеристики заключается в том, что это единственная функция в физике, которая показывает направленность процессов. Поскольку энтропия является функцией состояния, то она не зависит от того, как осуществлён переход из одного состояния системы в другое, а определяется только начальным и конечным состояниями системы.

Статистическая физика

Информатика

Проблемы энтропии

Примечания

Литература

Математическая физика. Энциклопедия / гл. ред. Л.Д. Фаддеев. — М.: Научное издательство «Большая российская энциклопедия», 1998. — 691 с. — ISBN 5-85270-304-4.

Д.В. Сивухин. Термодинамика и молекулярная физика. — М., 1979. — 127 с.