f-확장

f-divergence


확률론에서 ƒ-diversity는 두 확률분포PQ의 차이를 측정하는 함수 Df(PQ)이다.직관이 PQ[citation needed] 주는 승산비의 함수 f에 의해 가중된 차이를 평균으로 생각할 수 있도록 돕는다.

이러한 다이버전스는 알프레드 레니에[1] 의해 그가 잘 알려진 레니 엔트로피를 소개한 같은 신문에서 소개되었다.그는 마르코프 프로세스에서 이러한 다이버전스가 감소한다는 것을 증명했다.f-다이버겐은 Csiszarr(1963), 모리모토(1963), 알리&실비(1966)에 의해 더 독립적으로 연구되었고, 때로는 Csiszar ƒ-Divergenes, Csar-Morimotorgenes 또는 Ali-Silvey 거리로 알려져 있다.

정의

PQQ에 대해 절대적으로 연속되도록 공간 Ω에 대한 두 개의 확률 분포가 되도록 한다.그런 다음, f(1) = 0과 같은 볼록함수 f의 경우 Q로부터 P의 f-diversion은 다음과 같이 정의된다.

PQ가 모두 Ω의 기준 분포 μ에 대해 절대적으로 연속적인 경우, 이들의 확률 밀도 p와 qdP = p dμ, dQ = q를 만족한다.이 경우 f-diversity는 다음과 같이 기록할 수 있다.

f-divergenes는 Taylor 시리즈를 사용하여 표현할 수 있으며, 기형 거리의 가중 합계를 사용하여 다시 쓸 수 있다(Nielsen & Nock(2013년).

f-divergenes의 예

KL-다이버전스, 헬링거 거리, 총변동거리와 같은 많은 일반적인 다이버전스들은 f-다이버전스의 특별한 경우로서 f의 특정한 선택과 일치한다.다음 표에는 확률 분포와 해당 분포가 일치하는 f 함수(cf) 사이의 많은 공통 분해가 나열되어 있다.Liese & Vajda(2006).

발산 해당 f(t)
KL-디버전스
역 KL-다이버전스
제곱 헬링거 거리
총변동거리
Pearson }}- 디버전스
네이맨 }}-디버전스(역 피어슨)
α-diver전위
옌센-샤논 다이버전스
α-파괴전위(기타 명칭

( t) 함수는 ( t -1) )까지 정의되며 서 c (는) 일정하다.

특성.

  • 비부정성: ƒ-diversity는 항상 양의 값이다; 측정값 PQ가 일치하면 0이다.이는 옌센의 불평등에서 바로 뒤따른다.
  • 단조로움: κ측정값 P와 Q를 그에 상응하여κ Pκ Q로 변환하는 임의의 전이 확률이라면,
    {P, Q}에 대한 충분한 통계량에서 전환을 유도하는 경우에만 여기에서 동등성이 유지된다.
  • 조인트 볼록도: 0 λ 1 1의 경우
    는 R+ }}의 매핑 {\ \mathb {R}{+}^{2

In particular, the monotonicity implies that if a Markov process has a positive equilibrium probability distribution then is a monotonic (non-increasing) function of time, where the probability distribution Kolmogorov 전진 방정식(또는 마스터 방정식)의 솔루션으로, 마르코프 프로세스에서 확률 분포의 시간 진화를 설명하는 데 사용된다.이것은 모든 D ( () )이(가) 콜모고로프 전진 방정식의 랴푸노프 함수라는 것을 의미한다.Reverse statement is also true: If is a Lyapunov function for all Markov chains with positive equilibrium and is of the trace-form () then ) P [2][3]function ) {\ P 일부 볼록 함수 f.예를 들어, Bregman 다이버전트는 일반적으로 그러한 속성을 가지고 있지 않으며 마르코프 프로세스에서 증가할 수 있다.[4]

재무해석

한 쌍의 확률 분포는 한 분포가 공식 확률을 정의하고 다른 분포가 실제 확률을 포함하는 운명의 게임으로 볼 수 있다.실제 확률을 알면 플레이어가 게임에서 이익을 얻을 수 있다.다수의 합리적인 참여자들에게 기대수익률은 profit-diversity와 같은 일반적인 형태를 가진다.[5]

참고 항목

참조

  1. ^ Rényi, Alfréd (1961). On measures of entropy and information (PDF). The 4th Berkeley Symposium on Mathematics, Statistics and Probability, 1960. Berkeley, CA: University of California Press. pp. 547–561. Eq. (4.20)
  2. ^ Gorban, Pavel A. (15 October 2003). "Monotonically equivalent entropies and solution of additivity equation". Physica A. 328 (3–4): 380–390. arXiv:cond-mat/0304131. Bibcode:2003PhyA..328..380G. doi:10.1016/S0378-4371(03)00578-8. S2CID 14975501.
  3. ^ Amari, Shun'ichi (2009). Leung, C.S.; Lee, M.; Chan, J.H. (eds.). Divergence, Optimization, Geometry. The 16th International Conference on Neural Information Processing (ICONIP 20009), Bangkok, Thailand, 1--5 December 2009. Lecture Notes in Computer Science, vol 5863. Berlin, Heidelberg: Springer. pp. 185–193. doi:10.1007/978-3-642-10677-4_21.
  4. ^ Gorban, Alexander N. (29 April 2014). "General H-theorem and Entropies that Violate the Second Law". Entropy. 16 (5): 2408–2432. arXiv:1212.6767. Bibcode:2014Entrp..16.2408G. doi:10.3390/e16052408.
  5. ^ Soklakov, Andrei N. (2020). "Economics of Disagreement—Financial Intuition for the Rényi Divergence". Entropy. 22 (8): 860. arXiv:1811.08308. Bibcode:2020Entrp..22..860S. doi:10.3390/e22080860. PMC 7517462. PMID 33286632.