Участник:TGX/Черновик: различия между версиями
TGX (обсуждение | вклад) Нет описания правки Метка: редактор вики-текста 2017 |
TGX (обсуждение | вклад) Метка: редактор вики-текста 2017 |
||
Строка 6: | Строка 6: | ||
=== Дискретный случай === |
=== Дискретный случай === |
||
Для дискретной |
Для дискретной случайной величины <math>\zeta</math>, принимающей значения <math>x_1, x_2, x_3, \ldots, x_n</math> с вероятностями <math>p_1, p_2, p_3, \ldots, p_n</math> энтропия определяется выражением{{sfn|Математическая физика. Энциклопедия|с=678}}:. |
||
{{EF|:|<math>H = H(p_1,p_2,p_3,\ldots,p_n) = \sum_{i=1}^{n}p_i\log\left(\frac{1}{p_i}\right) </math>,|ref=1|center=y}} |
{{EF|:|<math>H = H(p_1,p_2,p_3,\ldots,p_n) = \sum_{i=1}^{n}p_i\log\left(\frac{1}{p_i}\right) </math>,|ref=1|center=y}} |
Версия от 13:50, 15 мая 2017
Черновик статьи об энтропии
Энтропи́я (от др.-греч. ἐντροπία «поворот», «превращение») — теоретико-информационная мера степени неопределенности случайной величины[1]. Энтропия является мультидисциплинарным понятием и широко используется в естественных и точных науках.
Математическое определение
Дискретный случай
Для дискретной случайной величины , принимающей значения с вероятностями энтропия определяется выражением[1]:.
, | (1) |
Свойства энтропии
Для непрерывной случайной величины
Энтропия в различных дисциплинах
Термодинамика
Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах, тогда как в необратимых — её изменение всегда положительно.
Математически энтропия определяется как функция состояния системы, определенная с точностью до произвольной постоянной. Разность энтропий в двух равновесных состояниях 1 и 2, по определению, равна приведённому количеству тепла (), которое надо сообщить системе, чтобы перевести ее из состояния 1 в состояние 2 по любому квазистатическому пути[2]:
. | (1) |
Так как энтропия определена с точностью до произвольной постоянной, то можно условно принять состояние 1 за начальное и положить . Тогда
, | (2) |
здесь интеграл берется для произвольного квазистатического процесса. Дифференциал функции имеет вид
. | (3) |
Энтропия устанавливает связь между макро- и микро- состояниями. Особенность данной характеристики заключается в том, что это единственная функция в физике, которая показывает направленность процессов. Поскольку энтропия является функцией состояния, то она не зависит от того, как осуществлён переход из одного состояния системы в другое, а определяется только начальным и конечным состояниями системы.
Статистическая физика
Информатика
Проблемы энтропии
Примечания
- ↑ 1 2 Математическая физика. Энциклопедия, с. 678.
- ↑ Сивухин.
Литература
Математическая физика. Энциклопедия / гл. ред. Л.Д. Фаддеев. — М.: Научное издательство «Большая российская энциклопедия», 1998. — 691 с. — ISBN 5-85270-304-4.
Д.В. Сивухин. Термодинамика и молекулярная физика. — М., 1979. — 127 с.