(от греч. entropia - поворот, превращение) (обычно обозначается S), функция состояния термодинамической системы, изменение которой dS в равновесном процессе равно отношению количества теплоты dQ, сообщенного системе или отведенного от нее, к термодинамической температуре Т системы. Неравновесные процессы в изолированной системе сопровождаются ростом энтропии, они приближают систему к состоянию равновесия, в котором S максимальна. Понятие «энтропия» введено в 1865 Р. Клаузиусом. Статистическая физика рассматривает энтропию как меру вероятности пребывания системы в данном состоянии (Больцмана принцип). Понятием энтропии широко пользуются в физике, химии, биологии и теории информации.
Значение слова ЭНТРОПИЯ в Современном толковом словаре, БСЭ
Что такое ЭНТРОПИЯ
БСЭ. Современный толковый словарь, БСЭ. 2003