энтропия



что такое энтропия

Автор Ўниор задал вопрос в разделе Естественные науки

Что такое энтропия? и получил лучший ответ

Ответ от Арсен Люпен[гуру]
Ответы тяжелые, бронебойные. Но энтропия не мера беспорядка, а мера вероятности протекания самопроизвольного процесса в изолированной термодинамической системе. Процесс же наиболее вероятен тогда, когда все молекулы вещества, или элементы системы занимают или займут в результате процесса РАВНОЕ (одинаковое) энергетическое состояние, при этом станет невозможен никакой дальнейший процесс то есть система станет термодинамически устойчива. Такое состояние не всегда совпадает с наибольшим беспорядком (хаосом) и напротив хаос сам по себе не является устойчивым состоянием он так сказать несёт потенцию - либо достижения ещё большего хаоса либо увеличения энтальпии то есть порядка в системе. В не изолированных (закрытых) , а тем более открытых системах всё ещё сложнее и понятие энтропии там несколько условно. Это изначально феноменологическая функция употребляемая нами в зависимости от краевых начальных и граничных условий без которых, она (эта функция) -есть фикция. Энтропия - мера экстенсивности термодинамической системы при данном интенсивном факторе которым выступает температура, произведение энтропии на ИЗМЕНЕНИЕ температуры и есть изменение энергии системы. Энтропия может и не меняться тогда как энергия системы изменяться будет. При изотермических процессах составляющая энергии системы в которую входит энтропия равна нолю. Да здесь я только пытаюсь изложить физическое понимание энтропии, применительно к информационным системам смысл энтропии как экстенсивного фактора видимо сохраняется.

Ответ от Evgeniy Bahmisov[активный]
Функция состояния системы.

Ответ от Александр Терентьев[новичек]
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу.
Энтропия - необратимое рассеивание энергии. (физика, термодинамика)

Ответ от Alexei[активный]
Энтропия это свойство состояния изолированной (или принимаемой за таковую) физической системы, характеризуемое количеством самопроизвольного изменения, на которое она способна.
Пример энтропии
В качестве традиционного примера обычно приводят чашку кофе. Исключено, что кофе разогреется сам собой или самопроизвольно отделится от растворенного в нем сахара (он может лишь остыть и остаться сладким). Согласно второму принципу термодинамики, в закрытой системе энтропия может лишь увеличиваться, из чего следует, что ее беспорядочность будет стремиться к максимуму.
Источник: ссылка .

Ответ от Muriam[гуру]
энтропия - это мера неопределенности

Ответ от Zhantore Баданов[новичек]
Энтропи?я (от др. -греч. ???????? «поворот», «превращение») — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.
Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации [1][2]. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.
Понятие информационной энтропии применяется как в теории информации и математической статистике, так и в статистической физике (энтропия Гиббса и её упрощённый вариант — энтропия Больцмана) [3][4]. Математический смысл информационной энтропии — это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии) [5]. Такая функция от числа состояний обеспечивает свойство аддитивности энтропии для независимых систем. Причём, если состояния различаются по степени доступности (то есть не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность {displaystyle p} p, тогда число состояний {displaystyle N=1/p} {displaystyle N=1/p}, а {displaystyle log N=log(1/p).} {displaystyle log N=log(1/p).}
В случае разных вероятностей состояний {displaystyle p_{i}} p_{i} рассмотрим средневзвешенную величину {displaystyle log {overline {N}}=sum _{i=1}^{N}p_{i}log(1/p_{i}),} {displaystyle log {overline {N}}=sum _{i=1}^{N}p_{i}log(1/p_{i}),} где {displaystyle {overline {N}}} {displaystyle {overline {N}}} — эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение для информационной энтропии Шеннона
{displaystyle H=log {overline {N}}=-sum _{i=1}^{N}p_{i}log p_{i}.} {displaystyle H=log {overline {N}}=-sum _{i=1}^{N}p_{i}log p_{i}.}
Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятия информационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром {displaystyle qleq 1} {displaystyle qleq 1} от величин {displaystyle 1/p_{i}} {displaystyle 1/p_{i}})[6].
Следует заметить, что интерпретация формулы Шеннона на основе взвешенного среднего не является её обоснованием. Строгий вывод этой формулы может быть получен из комбинаторных соображений с помощью асимптотической формулы Стирлинга и заключается в том, что комбинаторность распределения (т. е. число способов, которыми оно может быть реализовано) после взятия логарифма и нормировки асимптотически совпадает с выражением для энтропии в виде, предложенном Шенноном. [7]
В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности или хаотичности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.
Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.

Ответ от Ёитам Зоиров[новичек]
Энтропия-это мера беспорядка

Ответ от Ura popov[новичек]
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу

Ответ от V.V. ***[гуру]
Все правы))

Ответ от Ник Верн[активный]
эра энтропии пришла в наше сознание..

Ответ от Александр Бадин[новичек]
Энтропия - это мера спокойствия, равновесия системы, когда потенциальная энергия составляющих элементов, наименьшая или равна нулю, энтропия имеет наибольшее значение. Всякое движение уменьшает энтропию. Наибольшее значение энтропия в закрытой системе достигает при температуре Абсолютного нуля. В момент сотворения Мира энтропия была наивысшей.

Ответ от ***[гуру]
пока есть некий порядок - он будет деградировать. Тепло перемещаться в холодные области; белковые организмы - умирать; социумы - распадаться. Мера хаоса и есть энтропия. Более-менее серьезно узучена (с т. зр. фундаментальной науки) - термодинамическая энтропия.

Ответ от Evgeny M.[гуру]
Что-то слишком заумные и тяжелые ответы.. .
Всё гораздо проще.
Энтропия это мера беспорядка. Чем она больше, тем больше беспорядка. Если она растет, то значит беспорядок увеличивается. И не важно где, в термодинамике или в теории информации или в теории структур.
Вот и всё!

Ответ от Ёветлана Десятнюк[новичек]
понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса).

Ответ от Spheinx[гуру]
П... ц. Когда наступит полная э... я, Вы не будете задавать подобные вопросы.

Ответ от Ваня НЕважно[новичек]
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
Энтропия динамической системы — в теории динамических систем, мера хаотичности в поведении траекторий системы.
Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
Культурная энтропия — это часть энергии, направленная на ссоры, интриги, переживания обид и шуточки над коллегами.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов) .
Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
Энтропия — функция состояния системы, равная в равновесном процессе количеству теплоты сообщённой системе или отведённой от системы, Термодинамической температуре системы
Энтропия — связь между макро и микро состояниями, единственная функция в физике, которая показывает направленность процессов. Функция состояния системы, которая не зависит от перехода из одного состояния в другое, а зависит только от начального и конечного положения системы.

Ответ от Araucaria-2[гуру]
поворот, превращение. Это вы не из песни Летова случайно слово выдернули?

Ответ от ALEXANDRA[гуру]
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:

Ответ от 22 ответа[гуру]
Привет! Вот подборка тем с похожими вопросами и ответами на Ваш вопрос: Что такое энтропия?
ABN AMRO на Википедии
Посмотрите статью на википедии про ABN AMRO
Энтропия на Википедии
Посмотрите статью на википедии про Энтропия
Эффект Доплера на Википедии
Посмотрите статью на википедии про Эффект Доплера
Эффект замещения на Википедии
Посмотрите статью на википедии про Эффект замещения
 

Ответить на вопрос:

Имя*

E-mail:*

Текст ответа:*
Проверочный код(введите 22):*