정규 감마 분포

Normal-gamma distribution
정상의
파라미터 μ{\위치(실제)
\ \ 0 , } ()
> \ > 0 ,} (실제)
> \ \ > 0 , } (
지지하다
PDF
의미하다 [1]
모드
분산 [1]

확률 이론과 통계학에서 정규 감마 분포(또는 가우스 감마 분포)는 연속 확률 분포의 이변량 4모수 계열이다.평균[2]정밀도를 수 없는 정규 분포 이전의 켤레입니다.

정의.

랜덤 변수 쌍(X,T)의 경우 주어진 T의 X 조건부 분포가 다음과 같이 주어진다고 가정합니다.

즉, 조건부 분포는 정밀도 T(\ T의 정규 분포이며 1 1 T입니다

또한 T의 한계 분포가 다음과 같이 주어진다고 가정합니다.

여기서 이것은 T가 감마 분포를 갖는다는 것을 의미한다.여기에서 α, β는 관절분포의 파라미터이다.

그러면 (X,T)는 정규 감마 분포를 가지며, 이는 다음과 같이 표시됩니다.

특성.

확률밀도함수

(X,T)의[citation needed] 결합 확률 밀도 함수는 다음과 같다.

한계 분포

구조상 {\ 한계분포감마분포이며, 조건분포는 가우스분포이다.x x 한계분포는 모수 , 2) (,,β/ ( α ) { style nu2}) = ( \alpha)} )의 3변수 t-분포입니다[citation needed]

지수족

자연 매개 변수 α − 1/2, − β − λ μ 2/2, λ μ, − λ/2{\displaystyle \alpha -1/2,-\beta -\lambda\mu ^{2}/2,\lambda \mu ,-\lambda /2}그리고 자연적인 통계 ln ⁡ τ, τ,τ xτ x2{\displaystyle \ln \tau,\tau,\taux,\tau x^{2}}.-LSB- cita의normal-gamma 유통은four-parameter 지수 가족.tion 필요한]

자연 통계 모멘트

충분한 [citation needed]통계량의 모멘트 생성 함수를 사용하여 다음과 같은 모멘트를 쉽게 계산할 수 있다.

디감마 함수입니다.

스케일링

만약(X, T)∼ N시 rm분이 G는 mm는(μ, λ, α, β),((\mu,\lambda ,\alpha ,\beta),}을 어떤 b>;0,(b를 X, Tb){\displaystyle b>, 0,(bX,bT)}분산되 as[표창 필요한]N시 rm분이 G는 mm는(bμ, λ/b3, α, β/b).{\displaystyle{\rm.{NormalGamma}}(b\mu ,\

모수의 후방 분포

x가 미지의 \ 의 정규 분포에 따라 분포되어 있다고 가정합니다.

또한μ\displaystyle(\mudisplaystyle 분포가 정규 분포임을 나타냅니다.

밀도 θ가 만족하는 경우

가정하다

, X ( x , , n ){ =( 구성요소는 , { ,\ 조건적 분포는 각각 정규 분포입니다 / ( { 1/ \ } μ{ \ } {\ {\ {\ {\ {\ {\ {\ {\ {\ {\ ( \ } 분포는 Bays[3]정리에 의해 해석적으로 결정될 수 있다.명시적으로

서 L \{L 주어진 데이터에 대한 파라미터의 우도입니다.

데이터가 i.i.d이기 때문에 전체 데이터 집합의 가능성은 개별 데이터 샘플의 가능성 곱과 동일합니다.

이 식은 다음과 같이 단순화할 수 있습니다.

서 x = i {{ frac {1} \_ { ( - x {{ s= {sum}

모수의 후방 분포는 이전 시간 우도에 비례합니다.

마지막 지수항은 제곱을 완성함으로써 단순화된다.

이것을 위의 표현에 다시 삽입하면,

이 최종 표현은 정규 감마 분포와 정확히 같은 형태입니다.

파라미터의 해석

의사 관측치에서의 파라미터의 해석은 다음과 같습니다.

  • 새 평균은 연관된 (의사) 관측치의 수에 따라 가중치를 부여하여 이전 의사 평균과 관측 평균의 가중 평균을 취합니다.
  • {2\alpha\displaystyle}pseudo-observations 샘플로μ{\displaystyle \mu}과 표본 분산β α{\displaystyle{\frac{\beta}{\alpha}말}(pseudo-observations의 친척들은 아마 다른 숫자가 평균의 변화와 정확도 별도로 관리될 수 있도록)의 정밀도 2α에서}추산되었다. (제곱 편차 2β의 돈으로 즉{2\beta\displaystyle}).
  • 후방(λ 0{\displaystyle \lambda_{0}})단순히 새로운 관찰(n{\displaystyle n})의 해당 번호들을 추가함으로써 pseudo-observations의 번호를 업데이트합니다.
  • 제곱 편차의 새로운 합 제곱 편차를 이전 각각의 금액을 추가하여 계산된다.때문에 제곱 편차 8개의 다른 수단에 관해서, 그리고 이제는 그 둔 근사치의 합은 실제 총 제곱 편차를 산출하였습니다 하지만 세번째로"상호 작용 기간"이 필요하다.

그 결과, 누군가 nτ{\displaystyle n_{\tau}}표본의 nμ{\displaystyle n_{\mu}}샘플과 τ 0{\displaystyle \tau_{0}의 사전 정밀},μ{\displaystyle \mu}에 대한 사전 분포와 τ{\displaystyle\에서μ 0{\displaystyle \mu_{0} 접해 본 평균}다.타우}은

μ {\ s {\s 샘플한 후 후방 확률은 다음과 같습니다.

Matlab 등 일부 프로그래밍 언어에서는 감마 분포가로 구현되므로 정규 Gamma 분포의 네 번째 인수는 0 / { 2 \ _ { }/ n _ n _ 입니다

정규 감마 랜덤 변수 생성

랜덤 변동의 생성은 간단합니다.

  1. αβ({\ 감마 분포에서 샘플({
  2. xμdisplaystyle \mu1/(\ \ 갖는 정규 분포의 x(\

관련 분포

메모들

  1. ^ a b 베르나르도 & 스미스 (1993년, 페이지 434년)
  2. ^ Bernardo & Smith (1993년, 136, 268, 434페이지)
  3. ^ "Archived copy". Archived from the original on 2014-08-07. Retrieved 2014-08-05.{{cite web}}: CS1 maint: 제목으로 아카이브된 복사(링크)

레퍼런스

  • Bernardo, J.M., Smith, A.F.M.(1993) 베이지안 이론, Wiley.ISBN 0-471-49464-X
  • 디어든 등"베이지안 Q-learning", 제15회 인공지능 전국회의(AAAI-98), 1998년 7월 26~30일 미국 위스콘신주 매디슨.