энтропией



Entropia

Автор Лариса Пилявская задал вопрос в разделе Другое

что такое энтропия
и получил лучший ответ

Ответ от Евгения[гуру]
Энтропия (от греч. en - en - в, внутрь и troph - trope - поворот, превращение)
Энтропией называется функция состояния термодинамической системы. Понятие абсолютной величины энтропии отсутствует. В любых процессах поддается определению только величина ее изменения.
В термодинамике величиной энтропии измеряется степень рассеяния, т. е. перехода в тепловую энергию, любого другого вида энергии, содержащейся в системе. Любая термодинамическая изолированная от внешнего мира система стремится к выравниванию температур всех ее частей, т. е. к максимальному возрастанию энтропии в ней. Система, имевшая неравновесное тепловое состояние, переходит к равновесному, когда процессы теплопередачи прекращаются.
В статистической физике энтропия трактуется как мера вероятности пребывания системы в данном состоянии. Чем больше беспорядка, тем больше энтропия. Любая система постепенно переходит к своему более вероятному состоянию. В процессе этого в ней увеличивается беспорядок, нарастает хаос, а значит и увеличивается энтропия.
Понятие энтропии используется в химии, биологии, информатике и т. д.
Примеры возрастания энтропии хорошо известны. К ним относятся: процессы остывания и нагревания предметов, пока тепловые потоки не затухают; любые виды разрушений; зарастание огородов сорняками; случаи потерь информации на жестком диске компьютера под воздействием вирусов и даже возрастание домашнего хаоса, требующее от нас периодических уборок в квартире.
В науке общепринято, что, кроме начальных этапов формирования Вселенной, вплоть до образования галактик, во всех природных процессах в неживой природе энтропия возрастает.

Ответ от GBTA[гуру]
Смотря какая. Смотри в википедии или энциклопедии.

Ответ от Мария Фонарева[гуру]
От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания) , который может иметь разные исходы.

Ответ от YOЖ[гуру]
Не вдаваясь в подробности, энтропия-мера степени упорядоченности системы. Чем ниже энтропия, тем более упорядочена система.

Ответ от 22 ответа[гуру]
Привет! Вот подборка тем с похожими вопросами и ответами на Ваш вопрос: что такое энтропия
Entropia Universe на Википедии
Посмотрите статью на википедии про Entropia Universe
Эффект дохода на Википедии
Посмотрите статью на википедии про Эффект дохода
 

Ответить на вопрос:

Имя*

E-mail:*

Текст ответа:*
Проверочный код(введите 22):*