다양한 메시지 전달
Variational message passingVariational Message Passing (VMP; 변동 메시지 패스)는 존 윈에 의해 개발된 공역 지수 부모를 가진 연속값 또는 이산값 베이지안 네트워크에 대한 대략적인 추론 기법입니다.VMP는 잠재 디리클레 할당과 같은 기술에 의해 사용되는 대략적인 변동 방법을 일반화하는 수단으로 개발되었으며 노드의 마르코프 블랭킷의 메시지를 통해 각 노드에서 대략적인 분포를 업데이트함으로써 작동한다.
우도 하한
일부 변수(\H)와 변수(\V를 고려할 때 대략적인 추론의 목표는 그래픽 모델이 V(\ V에 있을 확률을 낮추는 것입니다. 일부 확률 Q에 정의될 예정),
- P ( display( ) (V ) HQ ( P ( , ) () - ( )( P ( )
그래서, 만약 우리가 우리의 하한을 정의한다면
- ( ) ( ) P ( , V)() \ L ( ) = \ _ { { P , )}、
가능성은 단순히 이 바운드(bound)에P(\ P와 Q Q 의 상대 엔트로피(relative entropy)입니다. 상대 엔트로피가 음이 아니기 때문에 위에서 정의한 L(\ L은 실제로 V(\ V의 로그 우도 하한입니다.분포 Q Q는 가장 단순한 을 제외한 모든 모델에서는 P P에 대한 한계화가 어렵기 때문에 P(디스플레이 스타일 P보다 단순한 특성을 가집니다.특히 VMP는 인수분포를 사용합니다.
서 Hi는 그래픽 모델의 분리된 부분입니다.
업데이트 규칙 결정
우도 추정치는 가능한 한 커야 합니다.하한이기 때문에 로그θ P에 로그 우도의 근사치가 향상됩니다.와같이 ({ 에 대해 파라미터화된 {Q을 인수분해 버전으로 하면({ Q_j})와QjQ_}) 의 상대 엔트로피가 음수입니다. j { Q _ { } is { Q _ { }^{ * }}이(가) 되어 있는 Qj 는 무관합니다.
- j ( j ) - { P ( , ) { Q { j * } ( _ { j } = frac { \ } { E } _ { { - j } \ ( H , V )}}
서E - { P ( , ) { \ } { - } \ { \ P ( , V )\ }는 Q j { 를 한 모든 Qi { displaystyle {j Qj({j})를 j{\({로 하면 L({ L이 최대화됩니다.
다양한 메시지 전달 중 메시지
부모는 자녀에게 충분한 통계의 기대치를 보내는 반면, 자녀는 부모에게 자연 매개변수를 전송한다. 이 또한 노드의 공동 부모로부터 메시지를 전송해야 한다.
지수족과의 관계
VMP의 모든 노드는 지수 패밀리이며 노드의 모든 상위 노드는 하위 노드에 적용되므로 충분한 통계량의 예상은 정규화 계수에서 계산할 수 있습니다.
VMP 알고리즘
알고리즘은 해당 벡터에 대한 충분한 통계정보의 예상값을 계산하는 것으로 시작됩니다.그 후 우도가 안정된 값으로 수렴될 때까지(통상은 작은 임계값을 설정하고 그 임계값보다 작게 증가할 때까지 알고리즘을 실행함으로써), 각 노드에서 다음 작업을 수행합니다.
- 부모님으로부터 모든 메시지를 받아라.
- 자녀로부터 모든 메시지를 가져옵니다(자녀가 공동 부모로부터 메시지를 받아야 할 수 있습니다).
- 노드의 예상 값을 충분한 통계로 계산합니다.
제약
모든 자녀는 부모에 공역해야 하므로 모형에서 사용할 수 있는 분포 유형이 제한됩니다.예를 들어, 가우스 분포의 모수는 가우스 분포(평균에 해당)와 감마 분포(정밀도에 해당하거나 더 일반적인 파라미터화의 }) 중 하나)여야 합니다.이산형 변수에는 디리클레 부모가 있을 수 있으며 포아송 및 지수 노드에는 감마 부모가 있어야 합니다.최근에는 VMP가 이 조건부 공역 [1]구속조건을 위반하는 모델을 처리하도록 확장되었습니다.
레퍼런스
- ^ Knowles, David A.; Minka, Thomas P. (2011). "Non-conjugate Variational Message Passing for Multinomial and Binary Regression" (PDF). Neurips.
- Winn, J.M.; Bishop, C. (2005). "Variational Message Passing" (PDF). Journal of Machine Learning Research. 6: 661–694.
- Beal, M.J. (2003). Variational Algorithms for Approximate Bayesian Inference (PDF) (PhD). Gatsby Computational Neuroscience Unit, University College London. Archived from the original (PDF) on 2005-04-28. Retrieved 2007-02-15.