Термодинамічний підхід - студопедія

Ентропія, функція стану S термодинамічної системи2, зміна якої dS для нескінченно малого оборотного зміни стану системи дорівнює відношенню кількості теплоти отриманого системою в цьому процесі (або забраного від системи), до абсолютної температурі Т:

де dS - приріст ентропії; # 948; Q 3 - мінімальна теплота, підведена до системи; T - абсолютна температура процесу.

Величина dS є повним диференціалом, тобто її інтегрування з будь-якого довільно обраному шляху дає різницю між значеннями ентропії в початковому (А) і кінцевому (В) станах:

Теплота не є функцією стану, тому інтеграл від # 948; Q залежить від обраного шляху переходу між станами А і В.

Ентропія вимірюється в Дж / (моль · К).

Вирази (1) і (2) справедливі тільки для оборотних процесів.

Для необоротних процесів виконується нерівність:

з якого випливає зростання ентропії в цих процесах.

1. Ентропія - величина адитивна, тобто ентропія системи з декількох тіл є сумою ентропій кожного тіла: S = ΣSi.

2. У рівноважних процесах без передачі тепла ентропія не змінюється. Тому рівноважні адиабатические процеси (# 948; Q = 0) називається ізоентропійним.

3. Ентропія визначається тільки з точністю до довільної сталої.

Дійсно, згідно з формулою (2) виміряної є лише різниця ентропій в двох станах.

Абсолютне значення ентропії можна встановити за допомогою третього початку термодинаміки (теореми Нернста): ентропія будь-якого тіла прагне до нуля при прагненні до абсолютного нуля його температури: lim S = 0
при Т → 0ДО.

Т.ч. за початкову точку відліку ентропії приймають S0 = 0 при Т → 0 К.

Ентропія - функція, що встановлює зв'язок між макро- і мікро- станами; єдина функція у фізиці, яка показує спрямованість процесів. Ентропія - в природничих науках міра безладу системи, що складається з багатьох елементів. Зокрема, в статистичній фізиці - міра ймовірності здійснення будь-якого макроскопічного стану; в теорії інформації - міра невизначеності будь-якого досвіду (випробування), який може мати різні наслідки, а значить, і кількість інформації; в історичній науці, для експлікації феномена альтернативності історії (інваріантності та варіативності історичного процесу). Ентропія в інформатиці - ступінь неповноти, невизначеності знань.

Поняття ентропії як показав вперше Е. Шредінгер (1944), істотно і для розуміння явищ життя. Живий організм з точки зору протікають в ньому фізико-хімічних процесів можна розглядати як складну відкриту систему, що знаходиться в нерівноважному, але стаціонарному стані. Для організмів характерна збалансованість процесів, що ведуть до зростання ентропії і процесів обміну, що зменшують її. Однак життя не зводиться до простої сукупності фізико-хімічних процесів, їй властиві складні процеси саморегулювання. Тому за допомогою поняття ентропії не можна охарактеризувати життєдіяльність організмів в цілому.

Схожі статті