Entropie je veličinou, která charakterizuje uspořádanost systému (druhá termodynamická věta). Lze pomocí ní objasnit mnohé jevy fyzikální, chemické, biologické, společenské a dokonce i jevy ve vesmíru. Takové systémy ponechané přirozenému vývoji směřují totiž vždy ke stavu s maximální entropií. Cílem naší práce je přinést stručný přehled znalostí, týkajících se stárnutí lidského organismu a doplnit je výsledky našich výzkumů.
Entropy is a measure of order and disorder and entropic principle (second thermodynamic principle) is able to explain many phenomena in physics, chemistry, biology, our human bodies, corporations and even the universe. If left alone, these ageing systems go spontaneously from low entropy and order, to maximum entropy. This means the direction of time can be evaluated. The short survey of basic knowledge concerning of ageing of humans together with results of our opinions and research are the aim of our work.
- MeSH
- Algorithms MeSH
- Artifacts MeSH
- Diagnostic Imaging trends MeSH
- Entropy * MeSH
- Fourier Analysis MeSH
- Humans MeSH
- Nuclear Magnetic Resonance, Biomolecular * methods MeSH
- Image Processing, Computer-Assisted * methods utilization MeSH
- Signal-To-Noise Ratio MeSH
- Spectrum Analysis trends utilization MeSH
- Check Tag
- Humans MeSH
Entropy is a measure of information content or complexity. Information-theoretic modeling has been successfully used in various biological data analyses including functional magnetic resonance (fMRI). Several studies have tested and evaluated entropy measures on simulated datasets and real fMRI data. The efficiency of entropy algorithms has been compared to classical methods based on the linear model. Here we explain and summarize entropy algorithms that have been used in fMRI analysis, their advantages over classical methods and their potential use in event-related and block design fMRI.
Cílem práce bylo zkoumat vztah mezi zobecněnou entropií diskrétní náhodné veličiny (tzv. f-entropií, třídou funkcí, zahrnující řadu indexů používaných pří měření biodiverzity) a minimální Bayesovskou pravděpodobností chyby při odhadu hodnoty této náhodné veličiny. Zejména studovat těsnost jejich vztahu. Morales a Vajda [1] nedávno zavedli míru zvanou průměrná nepřesnost (average inaccuracy), která kvantifikuje těsnost vztahu mezi aposteriorní Bayesovskou pravděpodobností chyby a mocninnými entropiemi. Tato míra je definována jako normalizovaný průměrný rozdíl horní a dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané entropie. Tuto míru je možno zobecnit na jakoukoli striktně konkávní f-entropii a použít ji k vyjádření těsnosti vztahu této f-entropie k aposteriorní Bayesovské pravděpodobnosti chyby. Získaný vztah je však většinou poměrně složitý a není možné snadno analyticky porovnat průměrné nepřesnosti různých f-entropií. Navrhujeme hladkou aproximaci dolní meze aposteriorní Bayesovské pravděpodobnosti chyby za dané f-entropie, jejíž použití zjednoduší formuli průměrné nepřesnosti. Ukázali jsme, že při použití této aproximace má kvadratická entropie nejtěsnější vztah k aposteriorní Bayesovské pravděpodobnosti chyby mezi f-entropiemi. Kvadratická entropie má těsnější vztah k Bayesovské pravděpodobnosti chyby (ve smyslu popsaném v článku) než Shannonova entropie a další funkce příslušící do třídy f-entropií, jako např. Emlenův index, Ferreriho index, Goodův index a další.
We deal with the relation between the generalized entropy (f-entropy, a family of functions that include several biodiversity measures) of a discrete random variable and the minimal probability of error (Bayes error) when the value of this random variable is estimated. Namely the tightness of their relation is studied. Morales and Vajda [1] recently introduced a measure called average inaccuracy that aims to quantify the tightness of the relation between the posterior Bayes error and the power entropies. It is defined as a standardized average difference between the upper and the lower bound for the posterior Bayes error under given entropy. Their concept can be generalized to any strictly concave f-entropy and used to evaluate its relation to the Bayes probability of error. However, due to a complex form of the formula of the average inaccuracy, it is difficult to compare the average inaccuracies of most f-entropies analytically. We propose a smooth approximation of the lower bound for the posterior Bayes error under given f-entropy that simplifies the formula of the average inaccuracy. We show that under this approximation, the quadratic entropy has the tightest relation to the posterior Bayes error among f-entropies. The quadratic entropy has the tightest relation to the posterior Bayes error (in the sense described in this paper) than the Shannon’s entropy and other functions that belong to the family of f-entropies, like Emlen’s index, Ferreri’s index and Good’s index.
We address the problem of entropy estimation for high-dimensional finite-accuracy data. Our main application is evaluating high-order mutual information image similarity criteria for multimodal image registration. The basis of our method is an estimator based on k-th nearest neighbor (NN) distances, modified so that only distances greater than some constant R are evaluated. This modification requires a correction which is found numerically in a preprocessing step using quadratic programming. We compare experimentally our new method with k-NN and histogram estimators on synthetic data as well as for evaluation of mutual information for image similarity.
- MeSH
- Algorithms MeSH
- Entropy MeSH
- Financing, Organized MeSH
- Image Interpretation, Computer-Assisted methods MeSH
- Magnetic Resonance Imaging methods MeSH
- Brain anatomy & histology MeSH
- Reproducibility of Results MeSH
- Pattern Recognition, Automated methods MeSH
- Sensitivity and Specificity MeSH
- Artificial Intelligence MeSH
- Image Enhancement methods MeSH