f-확장
f-divergence![]() |
확률론에서 ƒ-diversity는 두 확률분포P와 Q의 차이를 측정하는 함수 Df(PQ)이다.직관이 P와 Q가[citation needed] 주는 승산비의 함수 f에 의해 가중된 차이를 평균으로 생각할 수 있도록 돕는다.
이러한 다이버전스는 알프레드 레니에[1] 의해 그가 잘 알려진 레니 엔트로피를 소개한 같은 신문에서 소개되었다.그는 마르코프 프로세스에서 이러한 다이버전스가 감소한다는 것을 증명했다.f-다이버겐은 Csiszarr(1963), 모리모토(1963), 알리&실비(1966)에 의해 더 독립적으로 연구되었고, 때로는 Csiszar ƒ-Divergenes, Csar-Morimotorgenes 또는 Ali-Silvey 거리로 알려져 있다.
정의
P와 Q가 Q에 대해 절대적으로 연속되도록 공간 Ω에 대한 두 개의 확률 분포가 되도록 한다.그런 다음, f(1) = 0과 같은 볼록함수 f의 경우 Q로부터 P의 f-diversion은 다음과 같이 정의된다.
P와 Q가 모두 Ω의 기준 분포 μ에 대해 절대적으로 연속적인 경우, 이들의 확률 밀도 p와 q는 dP = p dμ, dQ = q dμ를 만족한다.이 경우 f-diversity는 다음과 같이 기록할 수 있다.
f-divergenes는 Taylor 시리즈를 사용하여 표현할 수 있으며, 기형 거리의 가중 합계를 사용하여 다시 쓸 수 있다(Nielsen & Nock(2013년).
f-divergenes의 예
KL-다이버전스, 헬링거 거리, 총변동거리와 같은 많은 일반적인 다이버전스들은 f-다이버전스의 특별한 경우로서 f의 특정한 선택과 일치한다.다음 표에는 확률 분포와 해당 분포가 일치하는 f 함수(cf) 사이의 많은 공통 분해가 나열되어 있다.Liese & Vajda(2006).
발산 | 해당 f(t) |
---|---|
KL-디버전스 | |
역 KL-다이버전스 | |
제곱 헬링거 거리 | |
총변동거리 | |
Pearson }}- 디버전스 | |
네이맨 }}-디버전스(역 피어슨) | |
α-diver전위 | |
옌센-샤논 다이버전스 | |
α-파괴전위(기타 명칭 |
( t) 함수는 ( t -1) )까지 정의되며 서 c 은 (는) 일정하다.
특성.
In particular, the monotonicity implies that if a Markov process has a positive equilibrium probability distribution then is a monotonic (non-increasing) function of time, where the probability distribution 은 Kolmogorov 전진 방정식(또는 마스터 방정식)의 솔루션으로, 마르코프 프로세스에서 확률 분포의 시간 진화를 설명하는 데 사용된다.이것은 모든 D ( ()∥ )이(가) 콜모고로프 전진 방정식의 랴푸노프 함수라는 것을 의미한다.Reverse statement is also true: If is a Lyapunov function for all Markov chains with positive equilibrium and is of the trace-form () then ) P [2][3]function ) {\ P 일부 볼록 함수 f.예를 들어, Bregman 다이버전트는 일반적으로 그러한 속성을 가지고 있지 않으며 마르코프 프로세스에서 증가할 수 있다.[4]
재무해석
한 쌍의 확률 분포는 한 분포가 공식 확률을 정의하고 다른 분포가 실제 확률을 포함하는 운명의 게임으로 볼 수 있다.실제 확률을 알면 플레이어가 게임에서 이익을 얻을 수 있다.다수의 합리적인 참여자들에게 기대수익률은 profit-diversity와 같은 일반적인 형태를 가진다.[5]
참고 항목
참조
- ^ Rényi, Alfréd (1961). On measures of entropy and information (PDF). The 4th Berkeley Symposium on Mathematics, Statistics and Probability, 1960. Berkeley, CA: University of California Press. pp. 547–561. Eq. (4.20)
- ^ Gorban, Pavel A. (15 October 2003). "Monotonically equivalent entropies and solution of additivity equation". Physica A. 328 (3–4): 380–390. arXiv:cond-mat/0304131. Bibcode:2003PhyA..328..380G. doi:10.1016/S0378-4371(03)00578-8. S2CID 14975501.
- ^ Amari, Shun'ichi (2009). Leung, C.S.; Lee, M.; Chan, J.H. (eds.). Divergence, Optimization, Geometry. The 16th International Conference on Neural Information Processing (ICONIP 20009), Bangkok, Thailand, 1--5 December 2009. Lecture Notes in Computer Science, vol 5863. Berlin, Heidelberg: Springer. pp. 185–193. doi:10.1007/978-3-642-10677-4_21.
- ^ Gorban, Alexander N. (29 April 2014). "General H-theorem and Entropies that Violate the Second Law". Entropy. 16 (5): 2408–2432. arXiv:1212.6767. Bibcode:2014Entrp..16.2408G. doi:10.3390/e16052408.
- ^ Soklakov, Andrei N. (2020). "Economics of Disagreement—Financial Intuition for the Rényi Divergence". Entropy. 22 (8): 860. arXiv:1811.08308. Bibcode:2020Entrp..22..860S. doi:10.3390/e22080860. PMC 7517462. PMID 33286632.
- Csiszár, I. (1963). "Eine informationstheoretische Ungleichung und ihre Anwendung auf den Beweis der Ergodizitat von Markoffschen Ketten". Magyar. Tud. Akad. Mat. Kutato Int. Kozl. 8: 85–108.
- Morimoto, T. (1963). "Markov processes and the H-theorem". J. Phys. Soc. Jpn. 18 (3): 328–331. Bibcode:1963JPSJ...18..328M. doi:10.1143/JPSJ.18.328.
- Ali, S. M.; Silvey, S. D. (1966). "A general class of coefficients of divergence of one distribution from another". Journal of the Royal Statistical Society, Series B. 28 (1): 131–142. JSTOR 2984279. MR 0196777.
- Csiszár, I. (1967). "Information-type measures of difference of probability distributions and indirect observation". Studia Scientiarum Mathematicarum Hungarica. 2: 229–318.
- Csiszár, I.; Shields, P. (2004). "Information Theory and Statistics: A Tutorial" (PDF). Foundations and Trends in Communications and Information Theory. 1 (4): 417–528. doi:10.1561/0100000004. Retrieved 2009-04-08.
- Liese, F.; Vajda, I. (2006). "On divergences and informations in statistics and information theory". IEEE Transactions on Information Theory. 52 (10): 4394–4412. doi:10.1109/TIT.2006.881731. S2CID 2720215.
- Nielsen, F.; Nock, R. (2013). "On the Chi square and higher-order Chi distances for approximating f-divergences". IEEE Signal Processing Letters. 21: 10–13. arXiv:1309.3029. Bibcode:2014ISPL...21...10N. doi:10.1109/LSP.2013.2288355. S2CID 4152365.
- Coeurjolly, J-F.; Drouilhet, R. (2006). "Normalized information-based divergences". arXiv:math/0604246.