Shannonova entropie
Dotaz
Zobrazit nápovědu
Cílem práce bylo zkoumat vztah mezi zobecněnou entropií diskrétní náhodné veličiny (tzv. f-entropií, třídou funkcí, zahrnující řadu indexů používaných pří měření biodiverzity) a minimální Bayesovskou pravděpodobností chyby při odhadu hodnoty této náhodné veličiny. Zejména studovat těsnost jejich vztahu. Morales a Vajda [1] nedávno zavedli míru zvanou průměrná nepřesnost (average inaccuracy), která kvantifikuje těsnost vztahu mezi aposteriorní Bayesovskou pravděpodobností chyby a mocninnými entropiemi. Tato míra je definována jako normalizovaný průměrný rozdíl horní a dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané entropie. Tuto míru je možno zobecnit na jakoukoli striktně konkávní f-entropii a použít ji k vyjádření těsnosti vztahu této f-entropie k aposteriorní Bayesovské pravděpodobnosti chyby. Získaný vztah je však většinou poměrně složitý a není možné snadno analyticky porovnat průměrné nepřesnosti různých f-entropií. Navrhujeme hladkou aproximaci dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané f-entropie, jejíž použití zjednoduší formuli průměrné nepřesnosti. Ukázali jsme, že při použití této aproximace má kvadratická entropie nejtěsnější vztah k aposteriorní Bayesovské pravděpodobnosti chyby mezi f-entropiemi. Kvadratická entropie má těsnější vztah k Bayesovské pravděpodobnosti chyby (ve smyslu popsaném v článku) než Shannonova entropie a další funkce příslušící do třídy f-entropií, jako např. Emlenův index, Ferreriho index, Goodův index a další.
We deal with the relation between the generalized entropy (f-entropy, a family of functions that include several biodiversity measures) of a discrete random variable and the minimal probability of error (Bayes error) when the value of this random variable is estimated. Namely the tightness of their relation is studied. Morales and Vajda [1] recently introduced a measure called average inaccuracy that aims to quantify the tightness of the relation between the posterior Bayes error and the power entropies. It is defined as a standardized average difference between the upper and the lower bound for the posterior Bayes error under given entropy. Their concept can be generalized to any strictly concave f-entropy and used to evaluate its relation to the Bayes probability of error. However, due to a complex form of the formula of the average inaccuracy, it is difficult to compare the average inaccuracies of most f-entropies analytically. We propose a smooth approximation of the lower bound for the posterior Bayes error under given f-entropy that simplifies the formula of the average inaccuracy. We show that under this approximation, the quadratic entropy has the tightest relation to the posterior Bayes error among f-entropies. The quadratic entropy has the tightest relation to the posterior Bayes error (in the sense described in this paper) than the Shannon’s entropy and other functions that belong to the family of f-entropies, like Emlen’s index, Ferreri’s index and Good’s index.
... 67 -- 2.4 Bayesovské odhady 68 -- 2.5 Pojmy teorie informace 71 -- 2.5.1 Elementární informace, Shannonova ... ... entropie 71 -- 2.5.2 Shannonova informace, diskriminační informace a divergence 75 -- 2.5.3 f-entropie ... ... rozptylu heterozygozity 86 -- 3.4 Míry genové diverzity 89 -- 3.4.1 Giniho-Siinpsonův index 89 -- 3.4.2 Shannonův ...
Biomedicínská statistika ; II.
171 s. ; 22 cm