Mail.ruПочтаМой МирОдноклассникиВКонтактеИгрыЗнакомстваНовостиКалендарьОблакоЗаметкиВсе проекты

Что такое энтропия?

Юниор Гуру (3786), закрыт 14 лет назад
Лучший ответ
Арсен Люпен Просветленный (45676) 14 лет назад
Ответы тяжелые, бронебойные. Но энтропия не мера беспорядка, а мера вероятности протекания самопроизвольного процесса в изолированной термодинамической системе. Процесс же наиболее вероятен тогда, когда все молекулы вещества, или элементы системы занимают или займут в результате процесса РАВНОЕ (одинаковое) энергетическое состояние, при этом станет невозможен никакой дальнейший процесс то есть система станет термодинамически устойчива. Такое состояние не всегда совпадает с наибольшим беспорядком (хаосом) и напротив хаос сам по себе не является устойчивым состоянием он так сказать несёт потенцию - либо достижения ещё большего хаоса либо увеличения энтальпии то есть порядка в системе. В не изолированных (закрытых) , а тем более открытых системах всё ещё сложнее и понятие энтропии там несколько условно. Это изначально феноменологическая функция употребляемая нами в зависимости от краевых начальных и граничных условий без которых, она (эта функция) -есть фикция. Энтропия - мера экстенсивности термодинамической системы при данном интенсивном факторе которым выступает температура, произведение энтропии на ИЗМЕНЕНИЕ температуры и есть изменение энергии системы. Энтропия может и не меняться тогда как энергия системы изменяться будет. При изотермических процессах составляющая энергии системы в которую входит энтропия равна нолю. Да здесь я только пытаюсь изложить физическое понимание энтропии, применительно к информационным системам смысл энтропии как экстенсивного фактора видимо сохраняется.
Баходир ПримкуловПрофи (605) 11 лет назад
Мощно!
Внушает!
Андрей НейманУченик (106) 8 лет назад
Теперь я боюсь использовать это слово в разговорной лексике.
Оксана БарадюляУченик (154) 7 лет назад
Значение слова ясно более или менее. Но возникли вопросы по значению других слов, что вытекли в процессе объяснения энтропии.
Алексей ИвановичУченик (247) 5 лет назад
Я когда читал аж вспотел
ага!
Остальные ответы
Araucaria-2 Просветленный (49900) 14 лет назад
поворот, превращение. Это вы не из песни Летова случайно слово выдернули?
Миша усачевУченик (147) 9 лет назад
да....
ALEXANDRA Мудрец (11130) 14 лет назад
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:

Ваня НЕважно Ученик (245) 14 лет назад
Энтропи́я (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса) . Для более основательного понимания этого термина, применительно к конкретному контексту, следует обратиться к статье о понятии "энтропия" в соответствующей научной дисциплине:
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче.
Энтропия динамической системы — в теории динамических систем, мера хаотичности в поведении траекторий системы.
Энтропия отражения — часть информации о дискретной системе, которая не воспроизводится при отражении системы через совокупность своих частей.
Культурная энтропия — это часть энергии, направленная на ссоры, интриги, переживания обид и шуточки над коллегами.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов) .
Энтропия в теории управления — мера неопределённости состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.

Энтропия — функция состояния системы, равная в равновесном процессе количеству теплоты сообщённой системе или отведённой от системы, Термодинамической температуре системы

Энтропия — связь между макро и микро состояниями, единственная функция в физике, которая показывает направленность процессов. Функция состояния системы, которая не зависит от перехода из одного состояния в другое, а зависит только от начального и конечного положения системы.
Ваня НЕважноУченик (245) 14 лет назад
http://ru.wikipedia.org/wiki/Энтропия вот тут полнее
Spheinx Гуру (4571) 14 лет назад
П... ц. Когда наступит полная э... я, Вы не будете задавать подобные вопросы.
ЮниорГуру (3786) 14 лет назад
Это точно, но и Вы не будете писать подобные ответы.
Светлана Десятнюк Ученик (157) 14 лет назад
понятие, впервые введённое в термодинамике для определения меры необратимого рассеивания энергии. Термин широко применяется и в других областях знания: в статистической физике — как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределённости какого-либо опыта (испытания) , который может иметь разные исходы; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса).
Evgeny M. Высший разум (925521) 14 лет назад
Что-то слишком заумные и тяжелые ответы.. .
Всё гораздо проще.
Энтропия это мера беспорядка. Чем она больше, тем больше беспорядка. Если она растет, то значит беспорядок увеличивается. И не важно где, в термодинамике или в теории информации или в теории структур.
Вот и всё!
Арсен ЛюпенПросветленный (45676) 14 лет назад
Да ответы тяжелые, бронебойные. Однако Вы слишком упрощаете, а это тоже "не есть хорошо". Энтропия не мера беспорядка, а мера вероятности самопроизвольного процесса в изолированной термодинамической системе. Процесс же наиболее вероятен тогда когда все молекулы вещества, или элементы системы занимают РАВНОЕ (одинаковое) энергетическое состояние, при этом невозможен никакой процесс то есть система термодинамически устойчива. Такое состояние не всегда совпадает с наибольшим беспорядком (хаосом) и напротив хаос сам по себе не является устойчивым состоянием он так сказать несёт потенцию - либо достижения ещё большего хаоса либо увеличения энтальпии то есть порядка в системе. В не изолированных (закрытых), а тем более открытых системах всё ещё сложнее и понятие энтропии там несколько условно. Это изначально феноменологическая фанкция употребляемая нами взависимости от краевых начальных и граничных условий без которыз она (эта функция) есть фикция. (см ответ).
Evgeny M. Высший разум (925521) Тогда вопрос на засыпку. О каких самопроизвольных процессах, энергетических состояниях и молекулах Вы ведете речь в теории информации? Представьте себе, что ваш ответ читает специалист не по физике, а по теории информации, где нет никаких молекул и энергии. Ну, то есть Ваше объяснение того, что такое энтропия, конечно, правильное, но оно ограничено только рамками физики, и даже еще более узко - рамками термодинамики. Даже в теории статических структур это объяснение не прокатит. И тем более оно не применимо в классической механике. А понятие энтропия ведь используется и в классических гамильтоновых системах, где вообще нет никаких вероятностей.
Evgeny M.Высший разум (925521) 9 лет назад
По обоснованию второго начала термодинамики из классической механики есть очень хорошая статья:
http://liveinternet.ru/go?quarkon.ru/physics/entropy.htm
Там очень по простому объясняется, почему в замкнутых системах растет энтропия, то есть возрастает хаос.
Магнус КордУченик (134) 6 лет назад
Тут был я!
:)
*** Мыслитель (9271) 14 лет назад
пока есть некий порядок - он будет деградировать. Тепло перемещаться в холодные области; белковые организмы - умирать; социумы - распадаться. Мера хаоса и есть энтропия. Более-менее серьезно узучена (с т. зр. фундаментальной науки) - термодинамическая энтропия.
Ник Верн Знаток (474) 8 лет назад
эра энтропии пришла в наше сознание..
Александр Бадин Ученик (116) 8 лет назад
Энтропия - это мера спокойствия, равновесия системы, когда потенциальная энергия составляющих элементов, наименьшая или равна нулю, энтропия имеет наибольшее значение. Всякое движение уменьшает энтропию. Наибольшее значение энтропия в закрытой системе достигает при температуре Абсолютного нуля. В момент сотворения Мира энтропия была наивысшей.
Владимир КарасевПрофи (571) 7 лет назад
а говорят, на примере с кофе, что энтропия - мера беспорядка. Чем больше энтропия, тем больше хаос
dmn Гуру (4370) 8 лет назад
энтропия - это мера неопределенности
Alexei Профи (554) 7 лет назад
Энтропия это свойство состояния изолированной (или принимаемой за таковую) физической системы, характеризуемое количеством самопроизвольного изменения, на которое она способна.

Пример энтропии

В качестве традиционного примера обычно приводят чашку кофе. Исключено, что кофе разогреется сам собой или самопроизвольно отделится от растворенного в нем сахара (он может лишь остыть и остаться сладким). Согласно второму принципу термодинамики, в закрытой системе энтропия может лишь увеличиваться, из чего следует, что ее беспорядочность будет стремиться к максимуму.

Источник: http://www.phildic.ru/entropiya/ .
Владимир КарасевПрофи (571) 7 лет назад
то есть, чем больше может изменяться система, тем больше энтропия?
я поняла так же
Evgeniy Bahmisov Профи (778) 7 лет назад
Функция состояния системы.
Александр Терентьев Ученик (104) 6 лет назад
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу.
Энтропия - необратимое рассеивание энергии. (физика, термодинамика)
Maksim popov Ученик (244) 6 лет назад
Энтропия - это разложение вещей, переход от упорядоченных структур к хаосу
Muhammadjon Профи (544) 6 лет назад
Энтропия-это мера беспорядка
Zhantore Баданов Знаток (254) 6 лет назад
Энтропи́я (от др. -греч. ἐντροπία «поворот», «превращение») — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике.

Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы, например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации [1][2]. Таким образом, другой интерпретацией энтропии является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации (Клод Шеннон) сначала хотел назвать эту величину информацией.

Понятие информационной энтропии применяется как в теории информации и математической статистике, так и в статистической физике (энтропия Гиббса и её упрощённый вариант — энтропия Больцмана) [3][4]. Математический смысл информационной энтропии — это логарифм числа доступных состояний системы (основание логарифма может быть различным, оно определяет единицу измерения энтропии) [5]. Такая функция от числа состояний обеспечивает свойство аддитивности энтропии для независимых систем. Причём, если состояния различаются по степени доступности (то есть не равновероятны), под числом состояний системы нужно понимать их эффективное количество, которое определяется следующим образом. Пусть состояния системы равновероятны и имеют вероятность {\displaystyle p} p, тогда число состояний {\displaystyle N=1/p} {\displaystyle N=1/p}, а {\displaystyle \log N=\log(1/p).} {\displaystyle \log N=\log(1/p).}

В случае разных вероятностей состояний {\displaystyle p_{i}} p_{i} рассмотрим средневзвешенную величину {\displaystyle \log {\overline {N}}=\sum _{i=1}^{N}p_{i}\log(1/p_{i}),} {\displaystyle \log {\overline {N}}=\sum _{i=1}^{N}p_{i}\log(1/p_{i}),} где {\displaystyle {\overline {N}}} {\displaystyle {\overline {N}}} — эффективное количество состояний. Из данной интерпретации непосредственно вытекает выражение для информационной энтропии Шеннона

{\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}.} {\displaystyle H=\log {\overline {N}}=-\sum _{i=1}^{N}p_{i}\log p_{i}.}
Подобная интерпретация справедлива и для энтропии Реньи, которая является одним из обобщений понятия информационная энтропия, но в этом случае иначе определяется эффективное количество состояний системы (можно показать, что энтропии Реньи соответствует эффективное количество состояний, определяемое как среднее степенное взвешенное с параметром {\displaystyle q\leq 1} {\displaystyle q\leq 1} от величин {\displaystyle 1/p_{i}} {\displaystyle 1/p_{i}})[6].

Следует заметить, что интерпретация формулы Шеннона на основе взвешенного среднего не является её обоснованием. Строгий вывод этой формулы может быть получен из комбинаторных соображений с помощью асимптотической формулы Стирлинга и заключается в том, что комбинаторность распределения (т. е. число способов, которыми оно может быть реализовано) после взятия логарифма и нормировки асимптотически совпадает с выражением для энтропии в виде, предложенном Шенноном. [7]

В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности или хаотичности системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия.

Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией.
Aleksandr Tregubko Ученик (204) 5 лет назад
форма определяющая место очередной бесконечности
Михаил Коч Ученик (243) 5 лет назад
Не сношайте моск людям. Энтропия это движение от порядка к беспорядку.
Похожие вопросы