Mail.ruПочтаМой МирОдноклассникиВКонтактеИгрыЗнакомстваНовостиКалендарьОблакоЗаметкиВсе проекты

Что такое энтропия?

ФермаКактусов Высший разум (181170), закрыт 1 год назад
Лучший ответ
Виктория Сереброва Высший разум (646791) 1 год назад
Энтропия как определение состояния системы была введена в 1865 году немецким физиком Рудольфом Клаузиусом, чтобы описать способность теплоты превращаться в другие формы энергии, главным образом в механическую. С помощью этого понятия в термодинамике описывают состояние термодинамических систем. Приращение этой величины связано с поступлением тепла в систему и с температурой, при которой это поступление происходит.

Википедия даёт краткое определение для нескольких областей, в которых этот термин используется:«Энтропия (от др.-греч. ἐντροπία «поворот»,«превращение») — часто употребляемый в естественных и точных науках термин. В статистической физике характеризует вероятность осуществления какого-либо макроскопического состояния. Помимо физики, этот термин широко используется в математике: теории информации и математической статистике».
Остальные ответы
J X Просветленный (47962) 1 год назад
мера беспорядочности
Matz Просветленный (34511) 1 год назад
Рассеивание энергии. Финал энтропии - исчезновение всего существующего.
Dmitry Искусственный Интеллект (583304) 1 год назад
В широком смысле - показатель степени неопределённости случайной величины.
Юрий Иванов Просветленный (30060) 1 год назад
Мера неупорядоченности системы.
Alikhan Zhankin Просветленный (49005) 1 год назад
Энтропия - это второй закон Термодинамики. Первый закон - это сохранение энергии. А Энтропия это по простому - всё что есть материальное в этом мире рано или поздно распадётся на элементарные частицы (энергии).
Дмитрий Низяев Искусственный Интеллект (804898) 1 год назад
Ровно то, что написано в словаре или энциклопедии. Что тебе помешало туда заглянуть?
Андрей Искусственный Интеллект (207486) 1 год назад
"Энтропия - натуральный логарифм статистического веса макроскопического состояния системы"
Ландау, Лифшиц "Курс теоретической физики" т.5, § 7
Тадасана Просветленный (38329) 1 год назад
У тебя было две монетки, десятирублевая и сторублевая, десятирублевая лежала орлом вверх, а сторублевая - решкой. И другая инфа о монетках тебя вообще не колебет.
Ты закрыл глаза, Маша их подкинула, они упали. Ты теперь не знаешь, какая из монет какой стороной вверх лежит. Ты проимел два бита информации - мера неопределенности системы составляет теперь два бита. Это и есть энтропия случайного распределения с четырьмя равновероятными элементарными исходами - 2 бита.

И термодинамическая энтропия из физики, которую проходят в школе, при предельном переходе от термодинамики к статистической физике тоже превращается в информационную.
Информационная энтропия - мера неопределенности системы.
А термодинамическая - это другая мера, о неопределенности в ТД речи нет. Но это тоже конечно-аддитивная мера, подсистемы, на котрые ты разбиваешь систему, полагаются независимыми.
qq Новичок (0) 1 год назад
это разрушение материи в следствие накачки её энергией. например трением мы разрушаем молекулы дверных петел, кислородом окисляем дрова и разрушаем его. разрушаем атомы урана в АЭС.

Все тяжелые элементарные частицы снова станут водородами в следствие Большого взрыва.

Кушаем еду и разрушаем его химически. Наши клетки разрушаются в следствие износа и мы умираем.
Похожие вопросы