우도비 검정

Likelihood-ratio test

통계학에서 우도비 검정은 특히 전체 매개변수 공간에 대한 최대화에 의해 발견된 것과 일부 제약을 가한 후에 발견된 두 개의 경쟁 통계 모델적합도를 평가한다.제약 조건(즉, 귀무 가설)이 관측 데이터에 의해 뒷받침되는 경우, 두 가지 가능성은 표본 오차 [1]이상 차이가 나지 않아야 한다.따라서 우도비 검정은 이 비율이 1과 유의하게 다른지 또는 자연 로그가 0과 유의하게 다른지 여부를 검정합니다.

Wilks [2]검정이라고도 하는 우도비 검정은 Lagrange 승수 검정 및 Wald [3]검정과 함께 가설 검정에 대한 세 가지 고전적인 접근 방식 중 가장 오래된 것입니다.사실, 후자는 우도비 검정의 근사치로 개념화될 수 있으며 점근적으로 [4][5][6]동등하다.각각에 알려지지 않은 매개변수가 없는 두 모델을 비교하는 경우, 우도비 검정의 사용은 네이만-피어슨 가설에 의해 정당화될 수 있다.이 조항은 테스트가 모든 [7]경쟁자 중에서 가장 높은 힘을 가지고 있다는 것을 증명합니다.

정의.

일반

파라미터 공간 { \ }icalicalical with with with with with with with with with with with with with with with with with with with모델이 있다고 가정합니다.파라미터 with { displaystyle \ 지정된 서브셋 하는 귀무 가설은 다음과 0(\ _0 _보완어입니다.귀무 0: θ 0 \ _ 우도비 검정 통계는 다음과 같습니다.[8]

여기서 괄호 안의 양을 우도비라고 합니다.서 sup표기법은 supremum을 나타냅니다.모든 가능성이 양수이고 제약된 최대값이 제약되지 않은 최대값을 초과할 수 없으므로 우도비는 0과 1 사이에서 제한됩니다.

종종 우도비 검정 통계량은 로그 우도 간의 차이로 표현됩니다.

어디에

L의 로그이며, 0 귀무 가설이 참인 특수한 경우 최대값입니다(단, 샘플링된 데이터와 관련하여 반드시L { 최대화하는 것은 아닙니다).

최대값의 각 인수와 해당 인수가 포함된 허용 범위를 나타냅니다.-2를 곱하면 수학적으로 (Wilks의 정리에 의해) text})이 됩니다.LR(는) 귀무 가설이 [9]참일 경우 점근적으로 θ² 분포로 수렴됩니다.우도비 검정의 유한 표본 분포는 일반적으로 [10]알려져 있지 않습니다.

우도비 검정에서는 모델을 내포해야 한다. 즉, 더 복잡한 모델은 전자의 매개변수에 제약을 가함으로써 더 단순한 모델로 변환할 수 있다.많은 일반적인 검정 통계량은 내포된 모형에 대한 검정이며 로그 우도 비 또는 근사치(예: Z 검정, F 검정, G 검정 Pearson의 카이 제곱 검정)로 표현될 수 있습니다. 1-표본 t-검정을 사용한 그림은 아래를 참조하십시오.

모형이 내포되지 않은 경우 우도비 검정 대신 일반적으로 사용할 수 있는 검정의 일반화가 있습니다. 자세한 내용은 상대 우도참조하십시오.

단순한 가설의 경우

단순 대 단순 가설 테스트는 귀무 가설과 대립 가설 모두에서 완전히 지정된 모델을 가지고 있으며, 편의상 개념 매개변수의 \

이 경우 두 가설 모두 데이터의 분포가 완전히 지정됩니다. 추정할 수 있는 알 수 없는 모수가 없습니다.이 경우 다음과 같은 다양한 우도비 검정을 사용할 [11][12]수 있습니다.

일부 오래된 참조에서는 위의 함수의 역수를 [13]정의로 사용할 수 있습니다.따라서 대안 모형이 귀무 모형보다 나은 경우에는 우도비가 작습니다.

우도비 테스트는 다음과 같은 결정 규칙을 제공합니다.

> c \ style ~ \ > ~ 인 경우 H \ H_을(를) 하지 마십시오.
< \ style ~ \ <~ 인 경우 0 \ H _ { } ;
. { ~\ =c ~ .}인 경우 거부합니다.
c. \ ~ \ < ~ }일 경우 1 { 1}로 거부합니다

c c q}는 보통 관계를 통해 지정 ({displaystyle

Neyman-Pearson lema는 이 우도비 테스트가 [7][12]이 경우에 대한 수준α 가장 강력하다고 명시하고 있다.

해석

우도비는 xx의 함수이므로 통계의 값이 {\(\ \})에 따라 다르다는 점에서 특이하지만 통계량입니다. 이 통계량의 값이 너무 작을 경우 우도비 검정은 귀무 가설을 기각합니다.너무 작은 정도는 검정의 유의 수준, 즉 허용 가능한 I형 오류의 확률에 따라 달라집니다(I형 오류는 참인 귀무 가설을 기각하는 것으로 구성됩니다).

분자귀무 가설에서 관측된 결과의 우도에 해당합니다.분모는 전체 모수 공간에 걸쳐 다양한 모수를 사용하여 관측된 결과의 최대 우도에 해당합니다.이 비율의 분자는 분모보다 작기 때문에 우도비는 0과 1 사이입니다.우도비 값이 낮다는 것은 관측 결과가 귀무 가설에서 대안에 비해 발생할 확률이 훨씬 낮다는 것을 의미합니다.통계량의 값이 높으면 관측된 결과가 귀무 가설에서 발생할 확률이 대안과 거의 같으므로 귀무 가설을 기각할 수 없습니다.

다음 예는 Stuart, Ord & Arnold(1999년, § 22.2)를 개작하고 요약한 것이다.

정규 분포 모집단에서 크기가 n인 랜덤 표본이 있다고 가정합니다.모집단의 평균 μ와 표준 편차 θ는 모두 불명.평균이 주어진 값 μ0 동일한지 여부를 검정하려고 합니다.

따라서, 우리의 귀무 가설0 H: μ0 = μ이고 우리의 대립 가설은 H1: μ µ0 μ이다. 우도 함수는 다음과 같다.

(여기서 생략) 어느 정도 계산하면 다음과 같이 나타낼 수 있습니다.

여기서 t는 자유도가 n - 1인 t자극입니다.따라서 t의 알려진n−1 정확한 분포를 사용하여 추론을 도출할 수 있습니다.

점근 분포:윌크스의 정리

특정 귀무 가설과 대립 가설에 대응하는 우도비의 분포를 명시적으로 결정할 수 있는 경우에는 (귀무 가설을 유지 또는 거부하기 위해) 결정 영역을 형성하기 위해 직접 사용할 수 있다.그러나 대부분의 경우 특정 가설에 해당하는 우도비의 정확한 분포를 결정하는 [citation needed]것은 매우 어렵습니다.

H가 참이라고 가정하면0 Samuel S에 의한 기본적인 결과가 있습니다. Wilks: 샘플 n n이 aches에 가까워지면 테스트 통계 LR(\에서 정의한 LR 으로 카이 제곱 분포 2 \^{되며 자유도\ 0 \ \ _{[14]의 치수 차이와 동일합니다.이는 매우 다양한 가설에 대해 데이터에 대한 {\ 계산하고 관찰된 LR \ _를 비교할 수 있음을 의미합니다.에서 원하는 통계적 유의성에 해당하는 2^{까지의 값.다른 내선번호가 존재합니다.[which?]

「 」를 참조해 주세요.

레퍼런스

  1. ^ King, Gary (1989). Unifying Political Methodology : The Likelihood Theory of Statistical Inference. New York: Cambridge University Press. p. 84. ISBN 0-521-36697-6.
  2. ^ Li, Bing; Babu, G. Jogesh (2019). A Graduate Course on Statistical Inference. Springer. p. 331. ISBN 978-1-4939-9759-6.
  3. ^ Maddala, G. S.; Lahiri, Kajal (2010). Introduction to Econometrics (Fourth ed.). New York: Wiley. p. 200.
  4. ^ Buse, A. (1982). "The Likelihood Ratio, Wald, and Lagrange Multiplier Tests: An Expository Note". The American Statistician. 36 (3a): 153–157. doi:10.1080/00031305.1982.10482817.
  5. ^ Pickles, Andrew (1985). An Introduction to Likelihood Analysis. Norwich: W. H. Hutchins & Sons. pp. 24–27. ISBN 0-86094-190-6.
  6. ^ Severini, Thomas A. (2000). Likelihood Methods in Statistics. New York: Oxford University Press. pp. 120–121. ISBN 0-19-850650-3.
  7. ^ a b Neyman, J.; Pearson, E. S. (1933), "On the problem of the most efficient tests of statistical hypotheses" (PDF), Philosophical Transactions of the Royal Society of London A, 231 (694–706): 289–337, Bibcode:1933RSPTA.231..289N, doi:10.1098/rsta.1933.0009, JSTOR 91247
  8. ^ Koch, Karl-Rudolf (1988). Parameter Estimation and Hypothesis Testing in Linear Models. New York: Springer. p. 306. ISBN 0-387-18840-1.
  9. ^ Silvey, S.D. (1970). Statistical Inference. London: Chapman & Hall. pp. 112–114. ISBN 0-412-13820-4.
  10. ^ Mittelhammer, Ron C.; Judge, George G.; Miller, Douglas J. (2000). Econometric Foundations. New York: Cambridge University Press. p. 66. ISBN 0-521-62394-4.
  11. ^ Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. §9.2.
  12. ^ a b Stuart, A.; Ord, K.; Arnold, S. (1999), Kendall's Advanced Theory of Statistics, vol. 2A, Arnold, §§20.10–20.13
  13. ^ Cox, D. R.; Hinkley, D. V. (1974), Theoretical Statistics, Chapman & Hall, p. 92, ISBN 0-412-12420-3
  14. ^ Wilks, S.S. (1938). "The large-sample distribution of the likelihood ratio for testing composite hypotheses". Annals of Mathematical Statistics. 9 (1): 60–62. doi:10.1214/aoms/1177732360.

추가 정보

외부 링크