연속 확률 분포군
정상의 파라미터 μ {\displaystyle \mu } 위치 (실제 ) § > 0 \ displaystyle \ displayda > 0 , } (실제 ) α > 0 \ displaystyle \alpha > 0 , } (실제) β > 0 \ displaystyle \ displaystyle > 0 , } (실제) 지지하다 x ∈ ( − ∞ , ∞ ) , τ ∈ ( 0 , ∞ ) (\displaystyle x\in (-\infty,\infty),\!,\interface \in (0,\infty))} PDF f ( x , τ ∣ μ , λ , α , β ) = β α λ Γ ( α ) 2 π τ α − 1 2 e − β τ e − λ τ ( x − μ ) 2 2 {\displaystyle f(x,\display \mu,\displayda,\alpha},\display frac {\displayda},\display frac {\gamma}{\gamma (\alpha}){\gamrt {2\pi}}}},\display frac {\display frac},\da ^{\d}, {\d},\frcrcrc} 의미하다 [1] E ( X ) = μ , E ( T ) = α β − 1 \displaystyle \operatorname {E}(X)=\mu \,\!,\display \operatorname {E}(\mathrm {T})=\alpha \operatorname ^{-1} 모드 ( μ , α − 1 2 β ) {\displaystyle \left(\mu,{\frac {1}{2}}{\frac }}\오른쪽)} 분산 [1] 변화하다 ( X ) = ( β λ ( α − 1 ) ) , 변화하다 ( T ) = α β − 2 {\displaystyle \operatorname {var}(X)= bigbig (\frac } {\parda (\alpha - 1)}} {\big}, \par \operatorname {var}(\mathrm {T})= \par ^{-2}
확률 이론 과 통계학에서 정규 감마 분포(또는 가우스 감마 분포)는 연속 확률 분포의 이변량 4모수 계열이다.평균 과 [2] 정밀도를 알 수 없는 정규 분포 이전의 켤레 입니다.
정의. 랜덤 변수 쌍(X ,T )의 경우 주어진 T의 X 조건부 분포 가 다음과 같이 주어진다고 가정합니다.
X ∣ T ∼ N ( μ , 1 / ( λ T ) ) , (\displaystyle X\mid T\sim N(\mu,1/(\lambda T)),\!,} 즉, 조건부 분포는 평균μ(\displaystyle \mu) 와 정밀도 t T(\displaystyle \lambda T) 의 정규 분포 이며 분산 은 1/(\ displaystyle 1/(\lambda T) 입니다. }
또한 T의 한계 분포가 다음과 같이 주어진다고 가정합니다.
T ∣ α , β ∼ 감마 ( α , β ) , (\displaystyle T\mid \alpha ,\beta \sim \operatorname {Gamma } (\alpha ,\beta ) 여기서 이것은 T가 감마 분포 를 갖는다는 것을 의미한다. 여기에서 α , β 는 관절분포의 파라미터이다.
그러면 (X ,T )는 정규 감마 분포를 가지며, 이는 다음과 같이 표시됩니다.
( X , T ) ∼ 노멀감마 ( μ , λ , α , β ) . \displaystyle (X,T)\sim \operatorname {NormalGamma} (\mu,\lambda,\alpha,\beta) } 특성. 확률밀도함수 (X ,T )의[citation needed ] 결합 확률 밀도 함수는 다음과 같다.
f ( x , τ ∣ μ , λ , α , β ) = β α λ Γ ( α ) 2 π τ α − 1 2 e − β τ exp ( − λ τ ( x − μ ) 2 2 ) {\displaystyle f(x,\display \mu,\displayda,\alpha},\displayfrac {\displayfrac}={\gamma (\alpha){2\pi}}},\display ^{\disp},\displayfrac {\da},\data },\frcrcrcrcrcrcrcrcrcrt {\f},\f},\d},\d},\f},\frcr 한계 분포 구조상 θ {\displaystyle\tau} 의 한계분포 는 감마분포 이며, θ {\displaystyle \ tau} 의 조건분포는 가우스분포 이다. x(\displaystyle x) 의 한계분포는 모수( ,, μ , β 2) = (2 α , μ , β / ( β α ) {display style (\ nu,\mu,\display ^{ 2}) = (2\alpha,\mu,\display/(\da) \alpha)} )의 3변수 t-분포 입니다. [citation needed ]
지수족 자연 매개 변수 α − 1/2, − β − λ μ 2/2, λ μ, − λ/2{\displaystyle \alpha -1/2,-\beta -\lambda\mu ^{2}/2,\lambda \mu ,-\lambda /2}그리고 자연적인 통계 ln τ, τ,τ xτ x2{\displaystyle \ln \tau,\tau,\taux,\tau x^{2}}.-LSB- cita의normal-gamma 유통은four-parameter 지수 가족.tion 필요한]
자연 통계 모멘트 충분한 [citation needed ] 통계량의 모멘트 생성 함수 를 사용하여 다음 과 같은 모멘트를 쉽게 계산할 수 있다.
E ( 인 T ) = ψ ( α ) − 인 β , {\displaystyle \operatorname {E}(\ln T)=\psi \left(\alpha \right)-\ln \ln \display,} 여기 서 α(\ displaystyle \psi \left(\alpha \right)) 는 디감마 함수입니다.
E ( T ) = α β , E ( T X ) = μ α β , E ( T X 2 ) = 1 λ + μ 2 α β . ({displaystyle {aligned}\operatorname {E}(T)&=frac {alpha}{\fr},\[5pt]\operatorname {E}(TX)&=mu {alpha}{\fr},\[5pt]\operatorname {E}(TX) \end { aligned}} 스케일링 만약(X, T)∼ N시 rm분이 G는 mm는(μ, λ, α, β),((\mu,\lambda ,\alpha ,\beta),}을 어떤 b>;0,(b를 X, Tb){\displaystyle b>, 0,(bX,bT)}분산되 as[표창 필요한]N시 rm분이 G는 mm는(bμ, λ/b3, α, β/b).{\displaystyle{\rm.{NormalGamma}}(b\mu ,\ ramda /b^{3},\alpha,\alpha /b) 를 선택합니다. }
모수의 후방 분포 x가 미지의 평균μ(\displaystyle \mu) 와 정밀도θ(\displaystyle \tau ) 의 정규 분포에 따라 분포되어 있다고 가정합니다.
x ∼ N ( μ , τ − 1 ) (\displaystyle x\sim {N}} (\mu,\tau ^{-1}) 또한 μ\displaystyle\ mu } 및 μ \ displaystyle \ displaystyle\ displaystyle (\mu,\ displaystyle) 의 이전 분포가 정규 분포임을 나타냅니다.
( μ , τ ) ∼ 노멀감마 ( μ 0 , λ 0 , α 0 , β 0 ) , \displaystyle (\mu,\tau)\sim {\text {Gamma}(\mu _{0},\lambda _{0},\alpha _{0},\beta _{0}) 밀도 θ 가 만족하는 경우
π ( μ , τ ) ∝ τ α 0 − 1 2 exp [ − β 0 τ ] exp [ − λ 0 τ ( μ − μ 0 ) 2 2 ] . \displaystyle \pi ( \mu , \frac )\propto \private ^ { \alpha _ { 0 } - { \ frac { { 0 } { } } , \ exp \ left [ - \ frac _ { 0 } } 、 \ frac \ right ( \ frac _ { 0 } } ) 。 } 가정하다
x 1 , … , x n ∣ μ , τ ∼ i . i . d . N ( μ , τ − 1 ) , \displaystyle x_{1},\ldots,x_{n}\mid \mu,\sim \operatorname {{i}. }{i.}{d. }} \operatorname {N} \left(\mu,\tau ^{-1}\right),} 즉 , X = ( x 1 , ... , x n ) {displaystyle \mathbf {X} =(x_{1},\ldots,x_{n}) 의 구성요소는 μ , {\ { displaystyle \ mu ,\display } 의 조건적 분포는 각각 정규 분포입니다. d variance 1 / . ( { displaystyle 1/ \ tau } μ { displaystyle \ mu } {\ this {\ {\ {\ {\ {\ {\ {\ {\ {\ {\ ( \ displaystyle \ mathbb { X } ) 의 후방 분포는 Bays 의 [3] 정리에 의해 해석적으로 결정될 수 있다.명시적으로
P ( τ , μ ∣ X ) ∝ L ( X ∣ τ , μ ) π ( τ , μ ) , \displaystyle \mathbf {P}(\tau,\mu \mid \mathbf {X})\propto \mathbf {L}(\mathbf {X} \mid \tau,\mu})\pi(\tau,\mu}) 여기 서 L(\displaystyle \mathbf {L}) 은 주어진 데이터에 대한 파라미터의 우도입니다.
데이터가 i.i.d이기 때문에 전체 데이터 집합의 가능성은 개별 데이터 샘플의 가능성 곱과 동일합니다.
L ( X ∣ τ , μ ) = ∏ i = 1 n L ( x i ∣ τ , μ ) . \displaystyle \mathbf {L}(\mathbf {X} \mid \mu},\mu )=\display_{i=1}^{n}\mathbf {L}(x_{i}\mid \mu,\mu) } 이 식은 다음과 같이 단순화할 수 있습니다.
L ( X ∣ τ , μ ) ∝ ∏ i = 1 n τ 1 / 2 exp [ − τ 2 ( x i − μ ) 2 ] ∝ τ n / 2 exp [ − τ 2 ∑ i = 1 n ( x i − μ ) 2 ] ∝ τ n / 2 exp [ − τ 2 ∑ i = 1 n ( x i − x ¯ + x ¯ − μ ) 2 ] ∝ τ n / 2 exp [ − τ 2 ∑ i = 1 n ( ( x i − x ¯ ) 2 + ( x ¯ − μ ) 2 ) ] ∝ τ n / 2 exp [ − τ 2 ( n s + n ( x ¯ − μ ) 2 ) ] , {\displaystyle {displaystyle {x}\mathbf {X}\mid \mu}&\propto \mod _{i=1}^{n}\exp \left[{\frac {-\frac {-i}-\mu}^{2\right] \[5pt]&\propto \propto ^{n/2}\exp \left[{\frac {-\frac }{2}\sum _{i=1}^{n}(x_{i}-\mu)^{2}\right]\ \[5pt]&\propto \propto ^{n/2}\exp \left[{\frac {-\propto }{2}\sum _{i}^{n}(x}-{\bar {x})+{\mu}^{2}\right}\sum \[5pt]&\propto \propto ^{n/2}\exp \left[{\frac {-\propto }{2}\sum _{i}^{n}\left(x_{i}-{\bar {x})^2}+({\bar {x}-\mu}^2}\right)\]\xp \xp \frac {-}\left } \ [ 5pt ] & \ propto \ { n / 2 } \ exp \ left [ { \ frac { - \ flac { - \ par { x } } \ left ( ns + nflash \ bar { x} - \ mu )^{2} \ right ] , \ end { aligned } 여기 서 x ¯ = 1n ∑ i = 1n x i {{displaystyle {x} = 1n frac {1} {n} \sum _ {i =1}^{n} x_i} = 1n = 1n (x - x }) 2 {{displaystyle s= frac {sum} {sum} { sum}
모수의 후방 분포는 이전 시간 우도에 비례합니다.
P ( τ , μ ∣ X ) ∝ L ( X ∣ τ , μ ) π ( τ , μ ) ∝ τ n / 2 exp [ − τ 2 ( n s + n ( x ¯ − μ ) 2 ) ] τ α 0 − 1 2 exp [ − β 0 τ ] exp [ − λ 0 τ ( μ − μ 0 ) 2 2 ] ∝ τ n 2 + α 0 − 1 2 exp [ − τ ( 1 2 n s + β 0 ) ] exp [ − τ 2 ( λ 0 ( μ − μ 0 ) 2 + n ( x ¯ − μ ) 2 ) ] {\displaystyle{\begin{정렬}\mathbf{P}(\tau,\mu\mid \mathbf{X})&, \propto \mathbf{L}(\mathbf{X}\tau ,\mu \mid)\pi(\tau ,\mu)\\&, \propto \tau ^{n/2}\exp \left[{\frac{-\tau}{2}}\left(ns+n({\bar{x}}-\mu)^{2}\right)\right]\tau ^{\alpha_{0}-{\frac{1}{2}}}\,\exp[{-\beta_{0}일 경우 \tau}]\,\exp\left[-{\frac{\lambda_{0}\tau(\mu -\m.u_{0})^ {2}} {2}} \ right ] \ \&\propto \frac {n}{2}}+\alpha _{0}-{\frac {1}{2}}\exp \left [-\frac \frac {1}{2}}ns + \ exp \ left [-\frac {1}{2}}\frac {\right} ns } ns + \ exp \ left left } {\f \ frac {{{{\ frac {\ frac {\ fright } {\ frac {\f} {\f} {\ frac {\ frac {\ 마지막 지수항은 제곱을 완성함으로써 단순화된다.
λ 0 ( μ − μ 0 ) 2 + n ( x ¯ − μ ) 2 = λ 0 μ 2 − 2 λ 0 μ μ 0 + λ 0 μ 0 2 + n μ 2 − 2 n x ¯ μ + n x ¯ 2 = ( λ 0 + n ) μ 2 − 2 ( λ 0 μ 0 + n x ¯ ) μ + λ 0 μ 0 2 + n x ¯ 2 = ( λ 0 + n ) ( μ 2 − 2 λ 0 μ 0 + n x ¯ λ 0 + n μ ) + λ 0 μ 0 2 + n x ¯ 2 = ( λ 0 + n ) ( μ − λ 0 μ 0 + n x ¯ λ 0 + n ) 2 + λ 0 μ 0 2 + n x ¯ 2 − ( λ 0 μ 0 + n x ¯ ) 2 λ 0 + n = ( λ 0 + n ) ( μ − λ 0 μ 0 + n x ¯ λ 0 + n ) 2 + λ 0 n ( x ¯ − μ 0 ) 2 λ 0 + n {\displaystyle{\begin{정렬}\lambda _ᆮ(\mu -\mu_{0})^ᆯ+n({\bar{x}}-\mu)^{2}&, =\lambda _{0}\mu ^{2}-2\lambda _{0}\mu \mu _{0}+\lambda _{0}\mu _{0}^{2}+n\mu ^{2}-2n{\bar{)}}\mu +n{\bar{)}}^{2}\\&, =(\lambda_{0}일 경우 +n)\mu ^ᆼ-2(\lambda_{0}일 경우 \mu_{0}일 경우 +n{\bar{x}})\mu +\lambda _{0}\mu _{0}^{2}+n{\bar{)}}^{2}\\&, =(\lambda_{0}일 경우 +n)(\mu ^{2.}-2{\frac{) 람다(_{0}+n{\bar{)}}}{\lambda_{0}+n}}\mu)+\lambda _{0}\mu _{0}^{2}+n{\bar{)}}^{2}\\&, =(\lambda_{0}일 경우 +n)\left(\mu-{\frac{\lambda_{0}일 경우 \mu_{0}일 경우 +n{\bar{x}}}{\lambda_{0}일 경우 +n}}\right)^{2}+\lambda _{0}\mu _{0}^{2}+n{\bar{)}}^{2}-{\frac{{2\left(\lambda_{0}일 경우 \mu_{0}일 경우 +n{\bar{x}}\right)^}}{\lambda_{0}+n}}\\&, =(\lambda_{0}일 경우 +n)\left(\mu. -{\frac {{0}\mu _{0}+n바 {x}}{\brackda _{0}+n}}\right}^2}+{\frac {brackda _{0}-\mu _{x0}}{\brackda _{0}+n}}}{\mu _{\endaligned}}}}} 이것을 위의 표현에 다시 삽입하면,
P ( τ , μ ∣ X ) ∝ τ n 2 + α 0 − 1 2 exp [ − τ ( 1 2 n s + β 0 ) ] exp [ − τ 2 ( ( λ 0 + n ) ( μ − λ 0 μ 0 + n x ¯ λ 0 + n ) 2 + λ 0 n ( x ¯ − μ 0 ) 2 λ 0 + n ) ] ∝ τ n 2 + α 0 − 1 2 exp [ − τ ( 1 2 n s + β 0 + λ 0 n ( x ¯ − μ 0 ) 2 2 ( λ 0 + n ) ) ] exp [ − τ 2 ( λ 0 + n ) ( μ − λ 0 μ 0 + n x ¯ λ 0 + n ) 2 ] {\displaystyle{\begin{정렬}\mathbf{P}(\tau,\mu\mid \mathbf{X})&,\propto \tau ^{{\frac{n}{2}}+\alpha _{0}-{\frac{1}{2}}}\exp \left[-\tau \left({\frac{1}{2}}ns+\beta_{0}일 경우 \right)\right]\exp \left는 경우에는 -{\frac{\tau}{2}}\left(\left(\lambda_{0}일 경우 +n\right)\left(\mu-{\frac{\lambda_{0}일 경우 \mu_{0}일 경우 +n{\bar{x}}}{\lambda_{0}일 경우 +n}}\right)^{2}+{\frac{.\lam bda _{0}nmar {x}-\mu _{0}^2}}{\badda _{0}+n}\right}\right]\ \&,\propto \tau ^{{\frac{n}{2}}+\alpha _{0}-{\frac{1}{2}}}\exp \left[-\tau \left({\frac{1}{2}}ns+\beta_{0}+{\frac{\lambda_{0}일 경우 n({\bar{x}}-\mu_{0})^{2}}{2(\lambda_{0}일 경우 +n)}}\right)\right]\exp \left[-{\frac{\tau}{2}}\left(\lambda_{0}일 경우 +n\right)\left(\mu-{\frac{\lambda_{0}일 경우 \mu_{0}일 경우 +n{\bar{x}}}{\lambda_{0}일 경우 +n}}\right)^{2}\right]\end{aligne.d}}} 이 최종 표현은 정규 감마 분포와 정확히 같은 형태입니다.
P ( τ , μ ∣ X ) = 노멀감마 ( λ 0 μ 0 + n x ¯ λ 0 + n , λ 0 + n , α 0 + n 2 , β 0 + 1 2 ( n s + λ 0 n ( x ¯ − μ 0 ) 2 λ 0 + n ) ) \displaystyle \mathbf {P}(\displaystyle,\mu \mid \mathbf {X})=text {NormalGamma}\left({\frac {\frac {0}\mu _{0}+n}},\fracda _{0}+n},\frac}_f {\frac}_f}) 파라미터의 해석 의사 관측치에서의 파라미터의 해석은 다음과 같습니다.
새 평균은 연관된 (의사) 관측치의 수에 따라 가중치를 부여하여 이전 의사 평균과 관측 평균의 가중 평균을 취합니다. {2\alpha\displaystyle}pseudo-observations 샘플로μ{\displaystyle \mu}과 표본 분산β α{\displaystyle{\frac{\beta}{\alpha}말}(pseudo-observations의 친척들은 아마 다른 숫자가 평균의 변화와 정확도 별도로 관리될 수 있도록)의 정밀도 2α에서}추산되었다. (제곱 편차 2β의 돈으로 즉{2\beta\displaystyle}). 후방(λ 0{\displaystyle \lambda_{0}})단순히 새로운 관찰(n{\displaystyle n})의 해당 번호들을 추가함으로써 pseudo-observations의 번호를 업데이트합니다. 제곱 편차의 새로운 합 제곱 편차를 이전 각각의 금액을 추가하여 계산된다. 때문에 제곱 편차 8개의 다른 수단에 관해서, 그리고 이제는 그 둔 근사치의 합은 실제 총 제곱 편차를 산출하였습니다 하지만 세번째로"상호 작용 기간"이 필요하다. 그 결과, 누군가 nτ{\displaystyle n_{\tau}}표본의 nμ{\displaystyle n_{\mu}}샘플과 τ 0{\displaystyle \tau_{0}의 사전 정밀},μ{\displaystyle \mu}에 대한 사전 분포와 τ{\displaystyle\에서μ 0{\displaystyle \mu_{0} 접해 본 평균}다. 타우}은
P ( τ , μ ∣ X ) = 노멀감마 ( μ 0 , n μ , n τ 2 , n τ 2 τ 0 ) {\displaystyle \mathbf {P} (\displaystyle,\mu \mid \mathbf {X})=\operatorname {NormalGamma} \left(\mu_{0},n_{\mu},{\mu}},{\frac {n_{2}},{\frac{{\n_{\f}}}}}}{\fright}}}}}} {\fright} {\frac{\fright} {\f}}}}}}} 평균 μ {\displaystyle \mu} 및 분산 s {\displaystyle s} 의 샘플 n개 를 관찰 한 후 후방 확률은 다음과 같습니다.
P ( τ , μ ∣ X ) = 노멀감마 ( n μ μ 0 + n μ n μ + n , n μ + n , 1 2 ( n τ + n ) , 1 2 ( n τ τ 0 + n s + n μ n ( μ − μ 0 ) 2 n μ + n ) ) \displaystyle \mathbf {P}(\displaystyle,\mu \mid \mathbf {X})=text {NormalGamma}\left({\frac {n_{\mu}\mu}+n},n_{n},n_{\frac}{\mu}) {\frac} {\frac} {n} {n}} Matlab 등 일부 프로그래밍 언어에서는 감마 분포가 β의 역정의 로 구현되므로 정규 Gamma 분포의 네 번째 인수는 2 0 0 / n {\ { display style 2 \ tau _ { 0 } / n _ n _ tau } 입니다.
정규 감마 랜덤 변수 생성 랜덤 변동의 생성은 간단합니다.
α 및 β({displaystyle \alpha}) 의 감마 분포에서 샘플 β ({displaystyle \ tau}) 샘플 x( 평균 μ(\ displaystyle \mu) 및 분산 1 /(\ displaystyle 1/(\lambda \tau))) 를 갖는 정규 분포의 x(\displaystyle x )
관련 분포 메모들 ^ a b 베르나르도 & 스미스 (1993년, 페이지 434년) ^ Bernardo & Smith (1993년, 136, 268, 434페이지) ^ "Archived copy" . Archived from the original on 2014-08-07. Retrieved 2014-08-05 .{{cite web }}
: CS1 maint: 제목으로 아카이브된 복사(링크 )
레퍼런스 Bernardo, J.M., Smith, A.F.M.(1993 ) 베이지안 이론 , Wiley. ISBN 0-471-49464-X 디어든 등 "베이지안 Q-learning ", 제15회 인공지능 전국회의(AAAI-98), 1998년 7월 26~30일 미국 위스콘신주 매디슨.
디스크리트 일변량
계속되는 일변량
에서 지원되는 유계 구간 에서 지원되는 반신반의 간격 서포트되고 있다 대체로 실선 지지와 함께 종류가 다른
혼재 일변량
다변량 (공동) 방향성 퇴화 단수 가족들