Entropija — apibrėžimas: termodinamika, statistinė fizika ir informacija
Sužinokite entropijos reikšmę termodinamikos, statistinės fizikos ir informacijos kontekste — nuo energijos sklaidos ir neapibrėžtumo iki tikimybių modelių.
Entropija — tai kiekybinis dydis, apibūdinantis sistemos netvarką ir energijos, kurios negalima panaudoti darbui atlikti, kiekį. Kitaip sakant, entropija susijusi su galimų sistemos mikrobūsenų skaičiumi ir taip pat yra neapibrėžtumo arba atsitiktinumo matas. Kuo daugiau galimų būsenų, tuo didesnė entropija ir tuo sunkiau „išgaudyti“ energiją, kurią būtų galima paversti naudingu darbu. Fizikos dėsnis — antrasis termodinamikos dėsnis — teigia, kad izoliuotoje sistemoje (be išorinio darbo arba mainų su aplinka) entropija negali sumažėti; be darbo entropija natūraliai linkusi didėti, todėl dažnai sakoma, kad viskas pamažu pereina į didesnę netvarką.
Žodis entropija įtvirtintas XIX a. viduryje — jį 1865 m. įvedė Rudolfas Clausius, tyrinėdamas šilumą ir energiją. Vėliau, XX a. pradžioje, Ludwigas Boltzmannas pateikė statistinį entropijos paaiškinimą, susiejant ją su mikrobūsenų skaičiumi. Šios idėjos vėliau tapo labai svarbios ir perėjo į kitas sritis: informacijos teoriją, chemiją ir kitus mokslus.
Termodinaminė ir statistinė entropijos samprata
Skiriamos dvi glaudžiai susijusios entropijos reikšmės:
- Termodinaminė entropija — aprašoma diferencialine formule ΔS = ∫ δQ_rev / T (integruojant per grįžtamuosius procesus), kur δQ_rev yra perduodama šiluma per grįžtamąjį procesą, o T — temperatūra (Kelvinais). Termodinaminė entropija yra intensyvus termodinaminis dydis, dažnai matuojamas džuliais pagal kelviną (J/K). Ji atspindi energijos sklaidą ir jos panaudojimo galimybes.
- Statistinė entropija — grindžiama mikrobūsenų (mikrostate) ir makrobūsenų (makrostate) samprata. Boltzmanno formulė S = k ln W sieja entropiją S su mikrobūsenų skaičiumi W ir Boltzmanno konstanta k (k ≈ 1.380649×10^−23 J/K). Daugiau sudėtingų arba tikimybine paskirstytų sistemų aprašymui vartojama Gibbs formulė S = −k Σ p_i ln p_i, kur p_i — i-tosios mikrobūsenos tikimybė.
Informacijos entropija
Informacijos teorijoje entropija (dažnai vadinama Shannon entropija) matuoja neišvengiamo neapibrėžtumo ar vidutinės informacijos kiekį pranešime ar atsitiktinėje kintamojo reikšmėje. Matematiškai ši entropija apibrėžiama H = −Σ p_i log p_i; čia log gali būti pagrindu 2 (rezultatas bitais), e (natūriniais vienetais) arba 10. Shannon entropija glaudžiai susijusi su statistine termodinamine entropija: formos yra analogiškos, o skirtumus lemia tik pastoviosios ir interpretacijos.
Praktiniai pavyzdžiai ir pasekmės
- Jeigu du skirtingų dujų kiekiai pašalinami per angą, jos spontaniškai maišosi — bendroji entropija padidėja (entropijos didėjimas kartu su negrįžtamuoju procesu).
- Šilumos tekėjimas nuo karštos kūno dalies link šaltesnės (be atlikto darbo) didina bendrą entropiją: entropijos suma izoliuotoje sistemoje ne mažėja.
- Norint sumažinti entropiją vietoje (pvz., atšaldyti, sukoncentruoti daleles ar sudaryti tvarką), reikia atlikti darbą ir dažniausiai perkelti didesnį entropijos kiekį į aplinką (pvz., šaldytuvas išneša šilumą į aplinką ir taip padidina aplinkos entropiją daugiau nei sumažina savo vidinę).
- Trečiasis termodinamikos dėsnis nurodo, kad idealaus, vienalytės sandaros kristalo entropija artėja prie nulio, kai temperatūra artėja prie absoliutaus nulio (0 K).
Matavimas, vienetai ir savybės
- Vienetai: termodinaminė entropija matuojama J/K; informacinė entropija — bitais (kai loga pagrindas 2) arba natais (kai loga pagrindas e).
- Extensyvumas: entropija yra extensyvus dydis — didinant sistemos masę paprastai didėja ir entropija (sudėjus dvi atskiras sistemas, bendroji entropija yra suma, jei sąlygos nepriklausomos).
- Grįžtami ir negrįžtami procesai: grįžtamame procese entropijos pokytis lygus perdavimo šilumos santykiui su temperatūra; negrįžtamuose procesuose atsiranda papildomas entropijos augimas dėl neišvengiamų neracionalumų.
Taikymas moksle ir kasdieniame gyvenime
Entropijos sąvoka plačiai naudojama:
- Chemijoje — cheminė energetika, pusiausvyrų nustatymas ir reakcijų laisvosios energijos skaičiavimas (Gibbs energija G = H − T S); entropija lemia, ar procesas yra spontaniškas tam tikroje temperatūroje.
- Informacijos teorijoje — duomenų suspaudimas, komunikacijos kanalų talpa ir informacijos kiekio vertinimas.
- Kitos sritys — kosmologija (Visatos entropijos evoliucija ir „laiko strėlė“), biologija (gyvybės organizacija reikalauja energijos, kuri palaiko mažesnę vietinę entropiją mainais į entropijos padidėjimą aplinkoje), inžinerija (šilumos varikliai, šaldymo įrenginiai).
Santrauka
Entropija yra pagrindinė fizikos ir informacijos teorijos sąvoka, kuri apjungia termodinaminį šilumos ir energijos pasiskirstymo aspektą su statistiniu mikrobūsenų neapibrėžtumu ir informacijos neapibrėžtumu. Antrasis termodinamikos dėsnis nurodo, kad izoliuotoje sistemoje entropija linkusi didėti — tai turi svarbias praktines pasekmes nuo šiluminių variklių efektyvumo iki informacijos apdorojimo ribų.
Klausimai ir atsakymai
K: Kas yra objekto entropija?
Atsakymas: Objekto entropija yra energijos kiekio, kuris negali būti panaudotas darbui atlikti, matas, taip pat galimų sistemos atomų išsidėstymo variantų skaičiaus matas.
K: Koks ryšys tarp entropijos ir neapibrėžtumo (atsitiktinumo)?
A: Entropija yra neapibrėžtumo arba atsitiktinumo matas, nes kuo didesnė objekto entropija, tuo labiau neapibrėžtos tą objektą sudarančių atomų būsenos, nes yra daugiau būsenų, iš kurių galima spręsti.
Klausimas: Ar galima sumažinti objekto ar sistemos entropiją be darbo?
Atsakymas: Ne, fizikos dėsnis sako, kad norint sumažinti objekto ar sistemos entropiją, reikia atlikti darbą; be darbo entropija niekada negali tapti mažesnė - viskas pamažu pereina į netvarką, o tai reiškia didesnę entropiją.
K: Iš kur kilo žodis entropija?
A: Žodis entropija atsirado 1850-1900 m. tyrinėjant šilumą ir energiją, ir tai davė labai naudingų matematinių idėjų apie tikimybių skaičiavimus, kurios dabar naudojamos informacijos teorijoje, statistinėje mechanikoje, chemijoje ir kitose mokslo srityse.
K: Ką kiekybiškai matuoja entropija?
A: Entropija tiesiog matuoja tai, ką apibūdina antrasis termodinamikos dėsnis: energijos sklaidą, kol ji pasiskirsto tolygiai.
K: Kaip skiriasi entropijos reikšmė skirtingose srityse?
A: Įvairiose srityse entropijos reikšmė skiriasi ir gali reikšti įvairius dalykus, pavyzdžiui, informacijos kiekį, netvarką ir energijos sklaidą.
K: Koks entropijos vaidmuo tikimybių skaičiavimuose?
A.: Entropija yra matematinis būdas kiekybiškai įvertinti sistemos netvarkos arba neapibrėžtumo laipsnį, kuris naudingas atliekant tikimybinius skaičiavimus.
Ieškoti