Detail
Článek
Článek online
FT
Medvik - BMČ
  • Je něco špatně v tomto záznamu ?

On the relation between generalized entropy and the bayes decision error [Vztah zobecněné entropie a Bayesovské pravděpodobnosti chyby]

M. Horáček

Jazyk angličtina, čeština Země Česko

Perzistentní odkaz   https://www.medvik.cz/link/bmc11005686

Cílem práce bylo zkoumat vztah mezi zobecněnou entropií diskrétní náhodné veličiny (tzv. f-entropií, třídou funkcí, zahrnující řadu indexů používaných pří měření biodiverzity) a minimální Bayesovskou pravděpodobností chyby při odhadu hodnoty této náhodné veličiny. Zejména studovat těsnost jejich vztahu. Morales a Vajda [1] nedávno zavedli míru zvanou průměrná nepřesnost (average inaccuracy), která kvantifikuje těsnost vztahu mezi aposteriorní Bayesovskou pravděpodobností chyby a mocninnými entropiemi. Tato míra je definována jako normalizovaný průměrný rozdíl horní a dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané entropie. Tuto míru je možno zobecnit na jakoukoli striktně konkávní f-entropii a použít ji k vyjádření těsnosti vztahu této f-entropie k aposteriorní Bayesovské pravděpodobnosti chyby. Získaný vztah je však většinou poměrně složitý a není možné snadno analyticky porovnat průměrné nepřesnosti různých f-entropií. Navrhujeme hladkou aproximaci dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané f-entropie, jejíž použití zjednoduší formuli průměrné nepřesnosti. Ukázali jsme, že při použití této aproximace má kvadratická entropie nejtěsnější vztah k aposteriorní Bayesovské pravděpodobnosti chyby mezi f-entropiemi. Kvadratická entropie má těsnější vztah k Bayesovské pravděpodobnosti chyby (ve smyslu popsaném v článku) než Shannonova entropie a další funkce příslušící do třídy f-entropií, jako např. Emlenův index, Ferreriho index, Goodův index a další.

We deal with the relation between the generalized entropy (f-entropy, a family of functions that include several biodiversity measures) of a discrete random variable and the minimal probability of error (Bayes error) when the value of this random variable is estimated. Namely the tightness of their relation is studied. Morales and Vajda [1] recently introduced a measure called average inaccuracy that aims to quantify the tightness of the relation between the posterior Bayes error and the power entropies. It is defined as a standardized average difference between the upper and the lower bound for the posterior Bayes error under given entropy. Their concept can be generalized to any strictly concave f-entropy and used to evaluate its relation to the Bayes probability of error. However, due to a complex form of the formula of the average inaccuracy, it is difficult to compare the average inaccuracies of most f-entropies analytically. We propose a smooth approximation of the lower bound for the posterior Bayes error under given f-entropy that simplifies the formula of the average inaccuracy. We show that under this approximation, the quadratic entropy has the tightest relation to the posterior Bayes error among f-entropies. The quadratic entropy has the tightest relation to the posterior Bayes error (in the sense described in this paper) than the Shannon’s entropy and other functions that belong to the family of f-entropies, like Emlen’s index, Ferreri’s index and Good’s index.

Vztah zobecněné entropie a Bayesovské pravděpodobnosti chyby

Citace poskytuje Crossref.org

Bibliografie atd.

Lit.: 16

000      
00000naa 2200000 a 4500
001      
bmc11005686
003      
CZ-PrNML
005      
20221006150305.0
008      
110606s2010 xr e eng||
009      
eAR
024    7_
$a 10.24105/ejbi.2010.06.1.8 $2 doi
040    __
$a ABA008 $b cze $c ABA008 $d ABA008 $e AACR2
041    0_
$a eng $a cze
044    __
$a xr
100    1_
$a Horáček, Martin. $7 _AN058677
245    10
$a On the relation between generalized entropy and the bayes decision error / $c M. Horáček
246    31
$a Vztah zobecněné entropie a Bayesovské pravděpodobnosti chyby
314    __
$a Centre of Biomedical Informatics, Institute of Computer Science AS CR, Prague, Czech Republic
504    __
$a Lit.: 16
520    3_
$a Cílem práce bylo zkoumat vztah mezi zobecněnou entropií diskrétní náhodné veličiny (tzv. f-entropií, třídou funkcí, zahrnující řadu indexů používaných pří měření biodiverzity) a minimální Bayesovskou pravděpodobností chyby při odhadu hodnoty této náhodné veličiny. Zejména studovat těsnost jejich vztahu. Morales a Vajda [1] nedávno zavedli míru zvanou průměrná nepřesnost (average inaccuracy), která kvantifikuje těsnost vztahu mezi aposteriorní Bayesovskou pravděpodobností chyby a mocninnými entropiemi. Tato míra je definována jako normalizovaný průměrný rozdíl horní a dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané entropie. Tuto míru je možno zobecnit na jakoukoli striktně konkávní f-entropii a použít ji k vyjádření těsnosti vztahu této f-entropie k aposteriorní Bayesovské pravděpodobnosti chyby. Získaný vztah je však většinou poměrně složitý a není možné snadno analyticky porovnat průměrné nepřesnosti různých f-entropií. Navrhujeme hladkou aproximaci dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané f-entropie, jejíž použití zjednoduší formuli průměrné nepřesnosti. Ukázali jsme, že při použití této aproximace má kvadratická entropie nejtěsnější vztah k aposteriorní Bayesovské pravděpodobnosti chyby mezi f-entropiemi. Kvadratická entropie má těsnější vztah k Bayesovské pravděpodobnosti chyby (ve smyslu popsaném v článku) než Shannonova entropie a další funkce příslušící do třídy f-entropií, jako např. Emlenův index, Ferreriho index, Goodův index a další.
520    9_
$a We deal with the relation between the generalized entropy (f-entropy, a family of functions that include several biodiversity measures) of a discrete random variable and the minimal probability of error (Bayes error) when the value of this random variable is estimated. Namely the tightness of their relation is studied. Morales and Vajda [1] recently introduced a measure called average inaccuracy that aims to quantify the tightness of the relation between the posterior Bayes error and the power entropies. It is defined as a standardized average difference between the upper and the lower bound for the posterior Bayes error under given entropy. Their concept can be generalized to any strictly concave f-entropy and used to evaluate its relation to the Bayes probability of error. However, due to a complex form of the formula of the average inaccuracy, it is difficult to compare the average inaccuracies of most f-entropies analytically. We propose a smooth approximation of the lower bound for the posterior Bayes error under given f-entropy that simplifies the formula of the average inaccuracy. We show that under this approximation, the quadratic entropy has the tightest relation to the posterior Bayes error among f-entropies. The quadratic entropy has the tightest relation to the posterior Bayes error (in the sense described in this paper) than the Shannon’s entropy and other functions that belong to the family of f-entropies, like Emlen’s index, Ferreri’s index and Good’s index.
650    _2
$a entropie $7 D019277
650    _2
$a Bayesova věta $7 D001499
650    _2
$a algoritmy $7 D000465
650    _2
$a financování organizované $7 D005381
653    00
$a zobecněná entropie
653    00
$a f-entropie
653    00
$a Bayesovská pravděpodobnost chyby
653    00
$a průměrná nepřesnost
653    00
$a mocninná entropie
653    00
$a kvadratická entropie
653    00
$a Shannonova entropie
653    00
$a Emlenův index
653    00
$a Ferreriho index
653    00
$a Goodův index
773    0_
$w MED00173462 $t European journal for biomedical informatics $g Roč. 6, č. 1 (2010), s. 38-42 $x 1801-5603
910    __
$a ABA008 $b online $y 1 $z 0
990    __
$a 20110321094316 $b ABA008
991    __
$a 20221006150259 $b ABA008
999    __
$a ok $b bmc $g 833131 $s 697763
BAS    __
$a 3 $a 4
BMC    __
$a 2010 $b 6 $c 1 $d 38-42 $m European Journal for Biomedical Informatics $x MED00173462
LZP    __
$a 2011-19/vthv

Najít záznam

Citační ukazatele

Nahrávání dat ...