최대 엔트로피 확률 분포

Maximum entropy probability distribution

통계정보이론에서, 최대 엔트로피 확률 분포는 적어도 특정 종류의 확률 분포의 다른 모든 구성원의 엔트로피만큼 큰 엔트로피를 가진다.최대 엔트로피의 원칙에 따라, 특정 등급에 속한다는 것(일반적으로 특정 특성이나 측도로 정의됨)을 제외하고 분포에 대해 알려진 것이 없는 경우, 엔트로피가 가장 큰 분포를 최소 정보 제공 디폴트로 선택해야 한다.동기는 두 가지다. 첫째, 엔트로피를 최대화하면 배포에 내장된 사전 정보의 양이 최소화된다. 둘째, 많은 물리적 시스템은 시간이 지남에 따라 최대 엔트로피 구성으로 이동하는 경향이 있다.null

엔트로피와 미분 엔트로피의 정의

(가) 분포가 지정된 이산형 랜덤 변수인 경우

X 의 엔트로피가 다음과 같이 정의된다.

() p( x) 의 연속 랜덤 변수인 경우, X {\ X[1][2][3] 엔트로피는 다음과 같이 정의된다.

p( ) ( ) ( x)= 일 때마다 0으로 이해된다

이것은 엔트로피(정보이론), 최대 엔트로피 원리, 미분 엔트로피에 기술된 보다 일반적인 형태의 특수한 경우다. 엔트로피 분포와 하여, H ( X) 을(를) 최대화하면 보다 일반적인 형태도 최대화할 수 있기 때문에 필요한 것은 이것뿐입니다.null

동일한 로그가 일관성 있게 사용되는 한 로그의 베이스는 중요하지 않다. 베이스의 변경은 엔트로피의 리스케일링을 초래할 뿐이다.정보 이론가들은 엔트로피를 비트 단위로 표현하기 위해 베이스 2를 사용하는 것을 선호할 수 있다; 수학자들과 물리학자들은 종종 자연 로그들을 선호할 것이고 엔트로피를 위한 nats의 단위가 될 것이다.null

일반적으로 르베그 측정에 의존하는 것이 "자연적"이라고 방어되는 경우가 많음에도 d x dx 측정의 선택은 엔트로피와 그에 따른 최대 엔트로피 분포를 결정하는 데 중요하다.null

측정된 상수가 있는 분포

해당 관심의 많은 통계적 분포는 순간 또는 기타 측정 가능한 양이 상수로 제한되는 분포들이다.루드비히 볼츠만의 다음과 같은 정리는 이러한 제약조건하에서 확률밀도의 형태를 제공한다.null

연속 케이스

S실제 숫자 R닫힌 부분 집합이고 n개의 측정 가능1 함수 f,...,fnn개숫자1 a,...,an 지정하도록 선택한다고 가정합시다. 우리는 S에서 지원되고 n개의 순간 조건을 만족하는 모든 실제 값 무작위 변수의 클래스 C를 고려한다.

C에 밀도함수가 S의 도처에 양수인 부재가 있고, C에 대한 최대 엔트로피 분포가 존재한다면, 확률밀도 p(x)는 다음과 같은 형태를 가진다.

where we assume that . The constant and the n Lagrange multipliers solve the constrained optimization problem with 이 조건은 이(가) unity에 통합되도록 보장):[4]

Karush-Kuhn-Tucker 조건을 사용하면 최적화의 객관적 기능이 }}에서 오목하기 때문에 최적화 문제가 고유한 해결책이 있음을 알 수 있다.

모멘트 조건이 (불평등 대신) 동일하다면, 즉,

그러면 제약 조건 가) 떨어져 라그랑주 승수에 대한 최적화가 제약되지 않게 된다.null

이산 케이스

={ , , . . }, 라고 가정합시다.은(완료 또는 무한) reals의 이산형 부분 집합이며, 함수1 f,...,fn 및 n 번호 a1,...,an 지정하도록 선택한다. 우리는 S에서 지원되고 n 모멘트 조건을 만족하는 모든 이산 랜덤 변수 X의 클래스 C를 고려한다.

S의 모든 멤버에 양의 확률을 할당하는 C의 멤버가 존재하고 C에 대한 최대 엔트로피 분포가 존재하는 경우, 이 분포는 다음과 같은 형태를 가진다.

where we assume that and the constants solve the constrained optimization problem with :[5]

다시 한 번 모멘트 조건이 동일하면(불평등 대신) 제약 조건 가) 최적화에 존재하지 않는다.null

동일성 제약의 경우 입증

평등 제약의 경우, 이 정리는 변동라그랑주 승수미적분학으로 증명된다.제약조건은 다음과 같이 기록할 수 있다.

우리는 기능성을 고려한다.

여기서 ,j 1 라그랑주 승수다.제로스 구속조건은 확률의 두 번째 공리를 보장한다.다른 제약조건은 함수의 측정에 순서까지 상수가 주어지는 것이다엔트로피는 기능파생물이 0일 때 극단에 도달한다.

이 극단이 실로 최대치라는 것은[citation needed] 독자를 위한 연습이다.따라서 이 경우의 최대 엔트로피 확률 분포는 형식이어야 한다( ( 0 - 0 -

별개의 버전의 증거는 본질적으로 동일하다.null

최대값의 고유성

이(가) 기대-불편성을 만족하는 분포라고 가정하자.Letting and considering the distribution it is clear that this distribution satisfies the expectation-constraints and furthermore has as support . From basic facts about entropy, it holds that . Taking limits α 은(는) H ( ) ( p) (을 산출한다

따라서 기대-불편성을 만족하고 엔트로피를 최대화하는 분포는 반드시 완전한 지지를 가져야 한다. 즉, 분포는 거의 모든 곳에서 긍정적이다.따라서 최대 분포는 기대-불편성을 만족하는 분포 공간의 내부 지점, 즉 국소 극단이어야 한다.따라서 엔트로피-최대화 분포가 고유하다는 것을 두 가지 모두 보여주기 위해(그리고 이것은 또한 국소 극단값이 글로벌 최대치라는 것을 보여준다) 국소 극단값이 고유하다는 것을 보여주기에 충분하다.null

, (가) 지역 극단이라고 가정하자.Reformulating the above computations these are characterised by parameters via and similarly for , where . We now note a series of identities:Via the satisfaction of the expectation-constraints and utilising gradients/directional derivatives, one has and similarly for . Letting one obtains:

where for some . Computing further one has

여기서 {\q}은(는) 위의 분포와 유사하며, 오직 {\에 의해 매개된다 관측 가능성의 비-직접 결합이 거의 모든 곳(예: 관측 가능이 독립적이고 상수가 아닌 경우 고정)에 의해 유지된다고 가정한다 ( X) 은(는) 이 아닌 분산을 가지고 있다. = 0 따라서 위의 방정식에 의해 후자는 반드시 해당해야 한다.따라서 -→ == 이(가)므로 국소극 의 특성을 나타내는 매개변수는 동일하므로 분포 자체가 동일하다는 것을 의미한다.따라서, 국부 극한은 고유하며, 위의 논의에 의해, 국부 극한은 실제로 존재한다고 가정할 경우 최대 극한은 고유하다.null

주의사항

모든 분포 클래스가 최대 엔트로피 분포를 포함하는 것은 아니라는 점에 유의하십시오.클래스에 임의의 큰 엔트로피의 분포(예: 평균 0이지만 임의의 표준 편차가 있는 R에 대한 모든 연속 분포의 분류)가 포함되거나 엔트로피가 위에 경계되지만 최대 엔트로피를 달성하는 분포가 없을 수 있다.[a]또한 등급 C에 대한 기대값 제한은 S의 특정 부분 집합에서 확률 분포를 0으로 강제할 수 있다.그럴 경우 우리의 정리가 적용되지 않지만, 세트 S를 줄임으로써 이 문제를 해결할 수 있다.

모든 확률 분포는 분포가 자체 엔트로피를 가지고 있다는 제약조건 하에서 사소한 경우 최대 엔트로피 확률 분포다.이를 보려면 를 p( )= ( p( ) {로 다시 작성하고 위의 정리 표현과 비교한다. ( x)( ) 을(를) 측정 가능한 함수로 선택하여

상수가 되려면 ( ) 제약 조건 하의 최대 엔트로피 확률 분포다.

( ) ( x) =- .

비경쟁적 예로는 엔트로피 할당과 다른 복수의 제약조건을 따르는 분포가 있다.이는 종종 동일한 절차 p () → ( )에서 시작하여 f( ) 화살표 에서 f ( x) 을(으)로 분리할 수 있다는 것을 발견함으로써 발견된다.null

최대 엔트로피 분포의 예시 표는 Lisman(1972)과 Park & Bera(2009)에 제시되어 있다.[7]

균일하고 조각이 있는 균일 분포

구간[a,b]의 균일한 분포는 구간[a, b]에서 지원되는 모든 연속 분포 중 최대 엔트로피 분포로, 따라서 확률 밀도는 구간 바깥에서 0이다.이 균일한 밀도는 때때로 불충분한 이성의 원리라고 불리는 라플레이스의 무관심 원리와 관련이 있을 수 있다.보다 일반적으로, 만일 우리에게 소분할 a=a01 < ...>가 주어진다면.< ak = b interval [a,b]와1 확률 p, ...,pk 1까지 더하면 다음과 같은 모든 연속 분포의 등급을 고려할 수 있다.

이 세분류에 대한 최대 엔트로피 분포의 밀도는 각 구간j-1[a,aj]에서 일정하다.유한 집합 {x1,...,xn}에 대한 균일한 분포(이 값들 각각에 1/n의 확률을 할당함)는 이 집합에서 지원되는 모든 이산형 분포 사이의 최대 엔트로피 분포다.null

양수 및 지정 평균: 지수 분포

밀도 함수가 있는 지수 분포

지정된 평균이 1/10인 [0,197]에서 지원되는 모든 연속 분포의 최대 엔트로피 분포다.null

지정된 평균 및 분산: 정규 분포

밀도 함수가 있는 정규 분포 N(μ,³2)

지정된 분산(특정 순간)과2 함께 (-multi,multi)에서 지원되는 모든 실제 값 분포 중에서 엔트로피가 최대값이다.따라서, 정규성의 가정은 이 순간을 넘어서는 최소한의 선행 구조적 제약조건을 부과한다. (도출은 미분 엔트로피 기사 참조)null

[0,192]에서 지원되는 분포의 경우, 최대 엔트로피 분포는 첫 번째와 두 번째 모멘트 사이의 관계에 따라 달라진다.특정한 경우 지수 분포일 수도 있고, 다른 분포일 수도 있고, 정의 불가능한 분포일 수도 있다.[8]null

지정된 평균을 갖는 이산형 분포

지정된 평균 μ를 사용하여 집합 {x1,...,xn}에서 지원되는 모든 이산형 분포 중에서 최대 엔트로피 분포는 다음과 같은 형태를 가진다.

여기서 모든 확률의 합은 1이어야 하고 기대값은 μ여야 한다는 요건에 의해 양의 상수 Cr을 결정할 수 있다.

예를 들어, 많은 의 N개의 주사위를 던졌는데, 표시된 숫자의 이 모두 S라고 한다면. 이 정보만으로도 1, 2, ..., 6을 나타내는 주사위의 수에 대해 합리적인 가정은 무엇일까? 이것은 위에서 고려한 상황의 예로서, {x1, ....,x6} = {1,...,6}, μ = S/N이다.null

마지막으로 무한 세트{ , 2,. . }에서 지원되는 모든 이산형 분포 중에서 평균 μ의 최대 엔트로피 분포는 다음과 같은 형태를 가진다.

여기서 다시 상수 Cr은 모든 확률의 합이 1이어야 하고 기대값은 μ여야 한다는 요건에 의해 결정되었다.예를 들어, xk = k인 경우, 이것은

각각의 최대 엔트로피 분포가 기하 분포인 경우.null

원형 랜덤 변수

단위 원을 중심으로 분포된 연속 랜덤 변수 i 의 경우, 첫 번째 원형 모멘트의 실제와 가상의 부분이[9] 지정되거나 동등하게 원형 평균과 원형 분산이 지정될 때 엔트로피를 최대화한다.null

각도 i modulo 의 평균과 분산이 지정되면 래핑된 정규 분포는 엔트로피를 최대화한다.[9]null

지정된 평균, 분산 및 스큐에 대한 최대값

에 있는 연속 랜덤 변수의 엔트로피에 지정된 평균, 분산 및 스큐가 있는 상한 값이 있다.때문에 p()))cexp ⁡(x+λ 2x2+λ 3λ 1x3){\displaystyle p())=c\exp{(\lambda_{1}x+\lambda_{2}x^{2}+\lambda_{3}x^{3})}} 때λ 3≠ 0{\displaystyle \lambda_{3}\neq 0}(토마스(2006년:장 12뚜껑을 덮및 보))에 끌려가는 사람들이 그러나, 이 상한 달성하지 유통, 있다..null

그러나 최대 엔트로피는 ε-해당 가능하다: 분포의 엔트로피는 임의로 상한에 근접할 수 있다.지정된 평균과 분산의 정규 분포로 시작하십시오.양의 기울기를 도입하려면 정규 분포를 평균보다 훨씬 큰 값으로 소량만큼 위로 동요시킨다.세 번째 모멘트에 비례하는 왜도는 낮은 모멘트보다 더 큰 영향을 받을 것이다.null

This is a special case of the general case in which the exponential of any odd-order polynomial in x will be unbounded on . For example, will likewise be unbounded on , but when the support is limited to a bounded or se상한 엔트로피 경계가 달성될 수 있는 mi-경계 구간(: x가 구간 [0,10] 및 and< 0에 있는 경우 지수 분포가 발생한다).null

지정된 평균 및 편차 위험 측정에 대한 최대값

로그 콘케이브 밀도가 있는 모든 분포는 지정된 평균 μ편차 위험 측정 D를 갖는 최대 엔트로피 분포다.[10]null

특히, 된 평균 x)= 편차 )= 의 최대 엔트로피 분포는 다음과 같다.

  • )= [( x- ) {\이(가) 표준 편차 경우 정규 분포 N
  • )= x -) 이(가) 평균 절대 편차인 경우 [6]라플라스 분포
  • The distribution with density of the form if is the standard lower semi-deviation, where a,b,c는 상수다.[10]

기타 예

아래 표에서 열거된 각 분포는 세 번째 열에 열거된 특정 기능 제약 조건들의 집합에 대한 엔트로피와 네 번째 열에 열거된 확률 밀도의 지지에 x가 포함되는 제약 조건을 최대화한다.[6][7]열거된 몇 가지 예(Bernouli, 기하학, 지수, 라플라스, 파레토)는 관련 제약조건이 엔트로피의 할당과 동일하기 때문에 사소한 사실이라고 할 수 있다.그들은 그들의 제약조건이 공통적이거나 쉽게 측정되는 양과 관련이 있기 때문에 어쨌든 포함되어 있다.For reference, is the gamma function, is the digamma function, , = ( p) ( ){ ( p+ ) 감마 (p+qE 오일러-마스체로니 상수이다.null

확률 분포 및 해당 최대 엔트로피 제약 조건 표
배포 이름 확률밀도/질량함수 최대 엔트로피 제약 조건 지원
균일(분리) 없음
균일(연속) 없음
베르누이
기하학
지수적
라플라스
비대칭 라플라스
파레토
정상
잘린 정규 분포 (기사 참조)
폰 미제스
레일리
베타. ( )= - (- ) - ,) 0
카우치
기를
카이-제곱
얼랑
감마
대수 정규
맥스웰-볼츠만
바이불
다변량 정규 분포
이항체 [11]
포아송 [11]

최대 엔트로피 원리는 통계 혼합물의 엔트로피 상한을 위해 사용될 수 있다.[12]null

참고 항목

메모들

  1. ^ 예를 들어, R에 대한 모든 연속 분포 X의 등급(E(X) = 0, E(X2) = E(X3) = 1). (표지, Ch 12 참조)

인용구

  1. ^ 윌리엄스, D.(2001년), 웨이트링 더 오즈, 캠브리지 대학 출판부, ISBN0-521-00618-X(197-199페이지)
  2. ^ 베르나르도, J. M. 스미스, A. F. M. (2000), 베이시안 이론, 와일리.ISBN 0-471-49464-X(209,366페이지)
  3. ^ 오헤간, A. (1994), 켄달의 고급통계론, 제2B권, 베이시안 추론, 에드워드 아놀드.ISBN 0-340-52922-9 (제5.40절)
  4. ^ Botev, Z. I.; Kroese, D. P. (2011). "The Generalized Cross Entropy Method, with Applications to Probability Density Estimation" (PDF). Methodology and Computing in Applied Probability. 13 (1): 1–27. doi:10.1007/s11009-009-9133-7. S2CID 18155189.
  5. ^ Botev, Z. I.; Kroese, D. P. (2008). "Non-asymptotic Bandwidth Selection for Density Estimation of Discrete Data". Methodology and Computing in Applied Probability. 10 (3): 435. doi:10.1007/s11009-007-9057-z. S2CID 122047337.
  6. ^ a b c Lisman, J. H. C.; van Zuylen, M. C. A. (1972). "Note on the generation of most probable frequency distributions". Statistica Neerlandica. 26 (1): 19–23. doi:10.1111/j.1467-9574.1972.tb00152.x.
  7. ^ a b Park, Sung Y.; Bera, Anil K. (2009). "Maximum entropy autoregressive conditional heteroskedasticity model" (PDF). Journal of Econometrics. 150 (2): 219–230. CiteSeerX 10.1.1.511.9750. doi:10.1016/j.jeconom.2008.12.014. Archived from the original (PDF) on 2016-03-07. Retrieved 2011-06-02.
  8. ^ Dowson, D.; Wragg, A. (September 1973). "Maximum-entropy distributions having prescribed first and second moments". IEEE Transactions on Information Theory (correspondance). 19 (5): 689–693. doi:10.1109/tit.1973.1055060. ISSN 0018-9448.
  9. ^ a b Jammalamadaka, S. Rao; SenGupta, A. (2001). Topics in circular statistics. New Jersey: World Scientific. ISBN 978-981-02-3778-3. Retrieved 2011-05-15.
  10. ^ a b Grechuk, B, Molyboha, A, Zabarankin, M. (2009) 최대 엔트로피 원리 일반 편차 측정, 연산 연구 34(2), 445-467, 2009.
  11. ^ a b Harremös, Peter (2001), "Binomial and Poisson distributions as maximum entropy distributions", IEEE Transactions on Information Theory, 47 (5): 2039–2041, doi:10.1109/18.930936.
  12. ^ Frank Nielsen; Richard Nock (2017). "MaxEnt upper bounds for the differential entropy of univariate continuous distributions". IEEE Signal Processing Letters. IEEE. 24 (4): 402-406. doi:10.1109/LSP.2017.2666792.

참조