Dvejetainė entropija, dar žinoma kaip Šenono entropija, yra informacijos teorijos sąvoka, matuojanti dvejetainio atsitiktinio dydžio neapibrėžtumą arba atsitiktinumą su dviem rezultatais. Ji skiriasi nuo klasikinės entropijos tuo, kad ji konkrečiai taikoma dvejetainiams kintamiesiems, o klasikinė entropija gali būti taikoma kintamiesiems su bet kokiu rezultatų skaičiumi.
Norėdami suprasti dvejetainę entropiją, pirmiausia turime suprasti pačią entropijos sąvoką. Entropija yra vidutinio informacijos kiekio arba neapibrėžtumo, esančio atsitiktiniame kintamajame, matas. Jis kiekybiškai įvertina, kaip nenuspėjami atsitiktinio kintamojo rezultatai. Kitaip tariant, jis mums parodo, kiek „staigmenos“ galime tikėtis, stebėdami atsitiktinio kintamojo rezultatus.
Dvejetainio atsitiktinio dydžio, turinčio dvi baigtis, atveju pažymėkime šiuos rezultatus 0 ir 1. Šio kintamojo dvejetainė entropija, žymima H(X), apskaičiuojama pagal formulę:
H(X) = -p(0) * log2(p(0)) – p(1) * log2(p(1))
čia p(0) ir p(1) yra atitinkamai 0 ir 1 rezultatų stebėjimo tikimybė. Logaritmas paimamas į 2 bazę, kad būtų užtikrinta, jog gauta entropijos vertė būtų matuojama bitais.
Norėdami apskaičiuoti dvejetainę entropiją, turime nustatyti dviejų rezultatų tikimybę. Jei tikimybės yra lygios, ty p(0) = p(1) = 0.5, tai dvejetainė entropija yra maksimali, o tai rodo didžiausią neapibrėžtį. Taip yra todėl, kad abu rezultatai yra vienodai tikėtini, ir mes negalime numatyti, kuris iš jų įvyks. Šiuo atveju dvejetainė entropija yra H(X) = -0.5 * log2(0.5) – 0.5 * log2(0.5) = 1 bitas.
Kita vertus, jei vienas rezultatas yra labiau tikėtinas nei kitas, dvejetainė entropija sumažėja, o tai rodo mažesnį neapibrėžtumą. Pavyzdžiui, jei p(0) = 0.8 ir p(1) = 0.2, dvejetainė entropija yra H(X) = -0.8 * log2(0.8) – 0.2 * log2(0.2) ≈ 0.72 bitai. Tai reiškia, kad vidutiniškai mums reikia mažiau nei vieno bito informacijos, kad pateiktume šio dvejetainio atsitiktinio kintamojo rezultatus.
Svarbu pažymėti, kad dvejetainė entropija visada yra neneigiama, tai reiškia, kad ji yra didesnė arba lygi nuliui. Jis padidinamas, kai dviejų baigčių tikimybės yra lygios, ir sumažinamas, kai vieno rezultato tikimybė yra 1, o kito - 0.
Dvejetainė entropija matuoja dvejetainio atsitiktinio dydžio neapibrėžtį arba atsitiktinumą su dviem rezultatais. Jis apskaičiuojamas naudojant formulę -p(0) * log2(p(0)) – p(1) * log2(p(1)), kur p(0) ir p(1) yra dviejų rezultatų tikimybė. . Gauta entropijos reikšmė matuojama bitais, didesnės reikšmės rodo didesnį neapibrėžtumą, o mažesnės – mažesnę neapibrėžtį.
Kiti naujausi klausimai ir atsakymai apie Klasikinė entropija:
- Kaip entropijos supratimas prisideda prie patikimų kriptografinių algoritmų kūrimo ir vertinimo kibernetinio saugumo srityje?
- Kokia yra didžiausia entropijos vertė ir kada ji pasiekiama?
- Kokiomis sąlygomis atsitiktinio dydžio entropija išnyksta ir ką tai reiškia kintamajam?
- Kokios yra entropijos matematinės savybės ir kodėl ji nėra neigiama?
- Kaip pasikeičia atsitiktinio dydžio entropija, kai tikimybė yra tolygiai paskirstyta tarp rezultatų, palyginti su tuo, kad ji yra pakreipta į vieną rezultatą?
- Koks ryšys tarp numatomo kodo žodžių ilgio ir atsitiktinio dydžio entropijos kintamo ilgio kodavimo atveju?
- Paaiškinkite, kaip klasikinės entropijos sąvoka naudojama kintamo ilgio kodavimo schemose efektyviam informacijos kodavimui.
- Kokios yra klasikinės entropijos savybės ir kaip ji susijusi su rezultatų tikimybe?
- Kaip klasikinė entropija išmatuoja neapibrėžtumą ar atsitiktinumą tam tikroje sistemoje?