랜덤 변수의 수렴

Convergence of random variables

확률론에서는 랜덤 변수의 수렴에 대한 몇 가지 다른 개념들이 존재한다. 무작위 변수순서가 일부 한계 랜덤 변수에 수렴되는 것은 확률 이론에서 중요한 개념이며, 통계확률적 프로세스에 그 적용이 된다. 같은 개념은 확률적 융합이라고 더 일반적인 수학에서 알려져 있으며, 그들은 본질적으로 무작위적이거나 예측할 수 없는 일련의 사건들이 때로는 순서에 충분히 가까운 항목을 연구할 때 본질적으로 변하지 않는 행동으로 정착되기를 기대할 수 있다는 생각을 공식화한다. 수렴의 다른 가능한 개념은 그러한 행동을 특징 지을 수 있는 방법에 관련된다. 쉽게 이해되는 두 가지 행동은 순서가 결국 일정한 값을 취하며, 순서의 값은 계속 변화하지만 변하지 않는 확률 분포로 설명할 수 있다는 것이다.

배경

"스토크틱 컨버전스"는 본질적으로 무작위적이거나 예측할 수 없는 일련의 사건들이 때때로 패턴으로 정착될 것으로 기대할 수 있다는 생각을 공식화한다. 예를 들어 패턴은

  • 고전적 의미에서의 고정값으로의 수렴, 아마도 그 자체가 무작위적인 사건에서 비롯되었을 것이다.
  • 순수하게 결정론적 함수가 산출할 결과와 결과의 증가하는 유사성
  • 특정 결과에 대한 선호도 증가
  • 특정 결과로부터 멀리 떨어져 있는 것에 대한 증가하는 "혐오"
  • 다음 결과를 설명하는 확률 분포가 특정 분포와 점점 비슷해질 수 있다는 것

덜 명백하고 더 이론적인 패턴은

  • 특정 값에서 결과 거리의 기대값을 계산하여 형성된 연속물이 0으로 수렴할 수 있다는 것
  • 다음 사건을 설명하는 변수의 분산이 점점 더 작아지는 것.

발생할 수 있는 이러한 다른 유형의 패턴은 연구된 확률적 수렴의 다른 유형에 반영된다.

상기 논의는 단일 시리즈를 한계값으로 융합하는 것과 관련이 있지만, 서로에 대한 두 시리즈의 융합 개념도 중요하지만, 두 시리즈의 차이 또는 비율로 정의된 순서를 연구하면 쉽게 처리할 수 있다.

예를 들어, n개독립 랜덤 변수 Yi, i = 1, ..., n의 평균이 모두 동일한 유한 평균과 분산을 갖는 경우,

그런 다음 n이 무한대로 되므로 Xn 확률로 수렴(아래 참조)하여 랜덤 변수 Yi 공통 평균인 μ로 수렴한다. 이 결과는 대수의 약한 법칙으로 알려져 있다. 다른 형태의 수렴은 중심 한계 정리를 포함한 다른 유용한 이론에서 중요하다.

다음에 걸쳐서 우리는 (Xn)가 랜덤 변수의 시퀀스라고 가정하고, X는 랜덤 변수라고 가정하며, 그 모든 것이 동일한 확률 공간 , (\에 정의된다

분포의 수렴

분포의 수렴 예제
주사위 공장
새로운 주사위 공장이 막 지어졌다고 가정해보자. 처음 몇 개의 주사위는 제작 과정의 불완전성 때문에 상당히 편향적으로 나온다. 이들 중 어느 하나를 던졌을 때의 결과는 원하는 균일 분포와 현저하게 다른 분포를 따를 것이다.

공장이 개선되면 주사위는 점점 적어지고, 새로 생산되는 주사위를 던짐으로 인한 결과는 점점 더 균일한 분포를 따를 것이다.
동전 던지기
Xn 편향되지 않은 동전을 N번 토해낸 후 머리가 되게 하라. 그 다음 X1 기대값 μ = 0.5, 분산 μ2 = 0.25베르누이 분포를 가진다. 이후의 임의 변수 X2, X3, ...는 모두 이항 분포한다.

n이 커짐에 따라 이 분포는 점차적으로 정규 분포의 종곡선과 비슷한 형태를 띠기 시작할 것이다. Xn 적절히 이동 및 재조정하면 = n ( -이(가) 지정된 중앙 한계 정리에서 따르는 표준 정규 분포로 수렴될 것이다.
그래픽 예
{Xi}이(가) 균일한 U(1, 1) 랜덤 변수의 iid 시퀀스라고 가정해 보십시오. = i= X 을(정규화된) 합으로 한다. 그리고 그 중심 극한 정리에 따르면,이 아연의 분배가 정상적인 N(0,.mw-parser-output .sfrac{white-space:nowrap}.mw-parser-output.sfrac.tion,.mw-parser-output.sfrac .tion{디스플레이:inline-block, vertical-align:-0.5em, font-size:85%;text-align:센터}.mw-parser-output.sfrac .num,.mw-parser-output.sfrac .den{를 찾아갑니다.디스플레이:블록, line-height:1em, 마진:00.1em}.mw-parser-output.sfrac .den{border-top:1px 고체}.mw-parser-output .sr-only{국경:0;클립:rect(0,0,0,0), 높이:1px, 마진:-1px, 오버 플로: 숨어 있었다. 패딩:0;위치:절대, 너비:1px}1/3)분포를 보여 준다. 이 수렴은 그림에 나타나 있다: n이 커질수록 확률밀도함수의 모양이 가우스 곡선에 점점 가까워진다.
Convergence in distribution (sum of uniform rvs).gif

이러한 수렴 모드와 함께, 우리는 주어진 확률 분포에 의해 더 좋고 더 나은 모델링이 되는 일련의 무작위 실험에서 다음 결과를 볼 수 있을 것으로 점점 더 기대하고 있다.

분포의 수렴은 이 글에서 언급된 다른 모든 유형의 수렴에 의해 함축되기 때문에 일반적으로 논의되는 수렴의 가장 약한 형태다. 그러나 분포의 수렴은 실제로 매우 빈번하게 사용된다. 대부분의 경우 중심 한계 정리의 적용에서 발생한다.

정의

실제2랜덤 변수시퀀스1 X, X, ...분포에서 수렴하거나, 약하게 수렴하거나, 법칙에서 임의 변수 X수렴한다고 한다.

F연속적인 모든 숫자 에 대해. 여기서 Fn F는 각각 랜덤 변수 Xn X누적 분포함수다.

F의 연속성 지점만 고려해야 한다는 요건은 필수적이다. 예를 들어 Xn 간격(0, 1/n)균일하게 분포된 경우 이 시퀀스는 분포에서 퇴보된 랜덤 변수 X = 0으로 수렴된다. 실제로, x ) 0일 때는 모든 n대해 Fn(x) = 0이고, n > 0일 때는 모든n x 1/n에 대해 F(x) = 1이다. 단, 이 제한 랜덤 변수 F(0) = 1의 경우, 모든 n에 대해n F(0) = 0이 된다. 따라서 f가 불연속적인 x = 0 지점에서 cdfs의 수렴이 실패한다.

분포의 수렴은 다음과 같이 나타낼 수 있다.

(1)

여기서 X의 법칙(확률 분포)이다. 예를 들어 가 표준 정상이라면 n→ d ( 0 , )라고 쓸 수 있다

임의 벡터 {X12, X, ...의 경우}} Rk 분포의 수렴도 이와 유사하게 정의된다. 이 시퀀스는 다음과 같은 경우 무작위 k-벡터 X분포되어 수렴된다고 한다.

X연속성 집합모든 A ⊂ Rk 대하여.

분포의 수렴의 정의는 임의 벡터에서 임의의 메트릭 공간에서 더 일반적인 무작위 요소까지 확장될 수 있으며, 심지어 측정할 수 없는 "랜덤 변수"까지 확장될 수 있다. 예를 들어 경험적 프로세스의 연구에서 일어나는 상황이다. 이것은 "법이 정의되지 않은 취약한 법률의 융합"이다. 다만 무증상으로는 예외다.[1]

이 경우 약한 수렴이라는 용어가 선호되며(측정의 약한 수렴을 참조), 우리는 다음과 같은 경우 무작위 요소 {Xn}의 순서가 X(XnX로 표시됨)로 약하게 수렴된다고 말한다.

모든 연속 경계 함수 h.[2] 여기서 E*는 "h(Xn)를 지배하는 가장 작은 측정 가능한 함수 g"에 대한 기대치를 나타낸다.

특성.

  • F(a) = Pr(Xa)이기 때문에 분포의 수렴은 주어진 범위에 Xn 있을 확률은 해당 범위에 있을 확률을 근사적으로 같음을 의미한다. 단, n충분히 크다.
  • 일반적으로 분포의 수렴은 해당 확률밀도함수의 순서도 수렴한다는 것을 의미하지 않는다. 예를 들어, fn(x) = (1 - cos(2nx))1(0,1) 밀도의 랜덤 변수를 고려할 수 있다. 이러한 랜덤 변수는 분포에서 균일한 U(0, 1)로 수렴되는 반면, 밀도는 전혀 수렴되지 않는다.[3]
    • 그러나 쉐페의 정리대로라면 확률밀도함수의 수렴은 분포의 수렴을 내포하고 있다.[4]
  • portmantau 보조정리기는 분배의 수렴에 대한 몇 가지 동등한 정의를 제공한다. 비록 이러한 정의들이 덜 직관적이긴 하지만, 그것들은 많은 통계적 이론들을 증명하기 위해 사용된다. 보조정리자는 다음과 같은 문장이 하나라도 n 경우에만 {X}이() X로 분포되어 수렴된다고 명시한다.[5]
    • ( )( ) xto 의 모든 연속성 지점에 대해 \Pr(Pr)
    • 경계 연속 함수 to \에 대해 operatorname {E}(서 E ) 예상 값 연산자를 나타냄);
    • ( ) ( ) 에 모든 경계선에 대해 Lipschitz f ;
    • ( n) ( ) \inf \inf 모든 음성이 아닌 연속 f{\
    • ( G) ) G G 모든 세트 G G
    • 모든 닫힌 F 에 대해 Sup ( ) \prX_ F)\F);
    • ( B)( B) 랜덤 변수 X {\ X}의연속성 집합
    • 된 모든 반연속 f {\ \ { {)}에 대해[citation needed]im Sup f
    • ( n) f( ) 아래에 바인딩된 모든 하위 반연속 f
  • 연속 매핑 정리는 연속함수 g의 경우, 시퀀스 {Xn}이(가) X로 분포에서 수렴되는 경우, {gn(X)}이() g(X)로 분포에서 수렴한다고 명시한다.
    • 그러나 일반적으로 {Xn}X, {Yn}Y의 분포에서 정합성이란 {Xn + Y} 대 X + Yn 또는 {XYnn}XY의 분포에서 정합성을 의미하지는 않는다는 점에 유의하십시오.
  • 레비의 연속성 정리: 해당하는 특성함수 {φn}의 순서가 X의 특성함수 φ포인트로 수렴되는 경우에만, 분포에서 {Xn} 순서가 X로 수렴된다.
  • 분포의 수렴은 레비-프로코로프 미터법으로 측정할 수 있다.
  • 분배의 수렴과 자연적인 연결고리는 스코로크호드의 표현 정리다.

확률의 수렴

확률의 수렴 예제
사람의 키
다음 실험을 생각해 보십시오. 첫째, 거리에서 무작위로 사람을 골라라. X를 그들의 키가 되게 하라. 그것은 임의의 변수다. 그리고 나서 다른 사람들에게 이 높이를 눈으로 추정해 달라고 부탁해. Xn번째 n개의 반응의 평균이 되게 하라. 그런 다음(계통 오차가 없는 경우) 대수의 법칙에 의해, 순서 Xn 랜덤 변수 X에 확률로 수렴된다.
난수생성예측
난수 생성기가 0과 1 사이의 유사 부동 소수점 번호를 생성한다고 가정합시다. 랜덤 변수 X가 알고리즘에 의한 가능한 출력 분포를 나타내도록 한다. 가성 번호는 결정적으로 생성되기 때문에 다음 값은 실제로 무작위가 아니다. 랜덤하게 생성된 숫자의 순서를 관찰하면서 패턴을 추론하고 다음 랜덤하게 생성된 숫자의 값을 점점 더 정확하게 예측할 수 있다고 가정합시다.번째 n개의 난수를 관찰한 후에 다음 난수의 값을 Xn 추측하도록 하자. 패턴을 배우고 추측이 정확해지면 Xn 분포가 X의 분포로 수렴될 뿐만 아니라 Xn 결과도 X의 결과로 수렴하게 된다.

이러한 유형의 수렴 뒤에 숨겨진 기본적인 생각은 "비정상적인" 결과의 확률은 순서가 진행됨에 따라 점점 더 작아진다는 것이다.

확률의 수렴 개념은 통계에서 매우 자주 사용된다. 예를 들어 추정기는 추정할 수량으로 확률로 수렴할 경우 일관성이 있다고 한다. 확률의 수렴은 또한 대수의 약한 법칙에 의해 확립된 수렴의 유형이다.

정의

모든 ε > 0에 대해 랜덤 변수 X를 향해 확률로 수렴되는 랜덤 변수순서 {Xn}

보다n 분명히 P(()를 X를 중심으로 반경 ε의 공 바깥에 Xn 있을 확률로 한다. 다음 Xn 어떤 ≥ > 0어떤n Δ > 0에 대해 모든 n definition N, P(ε) < Δ(한계의 정의)에 대해 숫자 N(ε, Δ에 의존할 수 있음)이 존재한다면 X에 확률로 수렴한다고 한다.

여기서 주목하지 않는 한 X 큰 num이 약한 법을 위해 같은 결정론적입니다는 조건 충족 하기 위해 각각의 n는 확률 변수 X와 Xn 독립심(공동 누적 분포 함수의 연관성에 대해 확률 수렴인 상황으로 유통에서 convergence는 개인 누적 분포 함수의 이면에는 조건)은 불가능하다.bers. 동시에 결정론적 X의 경우는 결정론적 값이 불연속점(격리되지 않음)일 때마다 불연속점을 명시적으로 배제해야 하는 분포의 수렴으로 처리할 수 없다.

확률의 수렴은 수렴을 나타내는 화살표 위에 문자 p를 추가하거나 "플림" 확률 한계 연산자를 사용하여 나타낸다.

(2)

분리 가능한 메트릭 공간(S, d)의 무작위 요소 {Xn}에 대해 확률의 수렴은 다음과[6] 같이 정의된다.

특성.

  • 확률의 수렴은 분포의 수렴을 의미한다.[proof]
  • 반대 방향에서 분포의 수렴은 한계 랜덤 변수 X가 상수일 때 확률의 수렴을 의미한다.[proof]
  • 확률의 수렴이 거의 확실한 수렴을 의미하지는 않는다.[proof]
  • 연속 매핑 정리는 모든 함수 g(·)에 대해 n X인 경우 ( n) → g ( ) → p g ()
  • 확률의 수렴은 고정된 확률 공간에 대한 랜덤 변수의 공간에 대한 위상을 정의한다.토폴로지는 Ky Fan 미터법으로 측정할 수 있다.[7]
    또는 이 미터법으로 번갈아

거의 확실한 수렴

거의 확실한 수렴의 예
예 1
어떤 짧은 종의 동물을 생각해 보라. 우리는 이 동물이 하루에 소비하는 음식의 양을 기록한다. 이 숫자의 순서는 예측할 수 없겠지만, 언젠가는 그 숫자가 0이 되고, 그 후에도 영원히 영(0)에 머무를 이라고 우리는 꽤 확신할 수 있다.
예 2
매일 아침 일곱 개의 동전을 던지는 사람을 생각해 보라. 매일 오후, 그는 나타난 각각의 머리들을 위해 자선단체에 1파운드를 기부한다. 그러나 첫 번째 결과가 모두 꼬리가 될 때 그는 영구적으로 멈출 것이다.

자선1 에게서2 받은 일일 금액이 X, X가 되게 하라.

우리는 언젠가는 이 양이 영이 될 것이고, 그 후에도 영원히 영이 될 것이라고 거의 확신할 수 있을 것이다.

그러나, 우리가 유한한 일수를 고려할 때, 종료 조건이 발생하지 않을 확률은 0이 아니다.

이것은 기초 실측 분석에서 알려진 점근법 수렴과 가장 유사한 확률론적 수렴 유형이다.

정의

Xn 시퀀스가 거의 확실하거나 거의 모든 에서 또는 확률 1과 함께 X향해 강하게 수렴된다고 말하는 것은

이는 Xn X에 수렴하지 않는 사건이 확률 0을 갖는다는 의미에서n X의 값이 X의 값에 접근한다는 것을 의미한다(거의 확실한 참조). 확률 공간, , ) 임의 변수의 개념을 Ω에서 R까지 함수로 사용한다면 이는 문장과 동등하다.

일련의 집합보다 상위의 한계라는 개념을 사용하여 거의 확신에 찬 수렴도 다음과 같이 정의할 수 있다.

수렴을 나타내는 화살표 위에 a.s를 추가하면 수렴이 거의 확실하다.

(3)

메트릭 공간, d) 스타일의 일반 랜덤 요소 {Xn}의 경우 수렴은 거의 유사하게 정의된다.

특성.

  • 거의 확실시되는 수렴은 확률의 수렴(파투의 보조정리)을 의미하며, 따라서 분포의 수렴을 의미한다. 대수의 강법칙에 쓰이는 융합 개념이다.
  • 거의 확실한 수렴의 개념은 랜덤 변수의 공간에 있는 위상에서 오는 것이 아니다. 즉, 거의 확실히 수렴 시퀀스가 위상에 대한 수렴 시퀀스인 랜덤 변수의 공간에 위상이 없음을 의미한다. 특히 거의 확실한 수렴의 척도가 없다.

확실한 정합화 또는 점근거

동일한 확률 공간(즉, 무작위 공정n)에 걸쳐 정의된 랜덤 변수(X)의 시퀀스가 확실하거나 어디서나 X 평균을 향해 포인트로 수렴된다고 말하는 것

여기서 Ω은 랜덤 변수가 정의되는 기본 확률 공간표본 공간이다.

이것은 일련의 함수를 무작위 변수의 순서로 확장하는 점적합성의 개념이다. (임의 변수 자체는 함수라는 점에 유의하십시오.)

무작위 변수의 확실한 수렴은 위에 언급된 다른 모든 종류의 수렴을 의미하지만, 거의 확실한 수렴을 사용하는 것에 비해 확실한 수렴을 사용함으로써 확률 이론에서는 보상이 없다. 둘 사이의 차이는 확률 0의 집합에서만 존재한다. 랜덤 변수의 확실한 수렴이라는 개념이 거의 사용되지 않는 이유다.

평균의 수렴

실제 숫자 r 1을 고려할 때, Xn X의 r번째 절대 모멘트 E( X )와 E( X )가 존재하는 경우, 시퀀스 Xn r번째 평균(또는n L-규범r)에서 랜덤 변수 X를 향해 수렴된다고 말하고,

여기서 연산자 E는 기대값을 나타낸다. r-th 평균의 수렴은 (와) {\의 차이에 대한 r-th번째 검정력에 대한 기대치가 0으로 수렴된다는 것을 알려준다.

이러한 유형의 수렴은 종종 수렴을 나타내는 화살표 위에 L자r 추가하여 나타낸다.

(4)

r-th 평균에서 정합화의 가장 중요한 예는 다음과 같다.

  • rn = 1에 대해 X가 r번째 평균에서 X로 수렴될 때, 우리는 Xn 평균에서 X로 수렴된다고 말한다.
  • rn = 2에 대해 X가 r-th 평균에서 X로 수렴될 때, X가n 평균 제곱(또는 2차 평균)에서 X로 수렴된다고 한다.

r번째 평균의 수렴은 r ≥ 1에 대해 확률의 수렴(마코프의 불평등에 의한)을 의미한다. 더욱이 r > s ≥ 1이면 r-th 평균의 수렴은 s-th 평균의 수렴을 의미한다. 따라서 평균 제곱의 수렴은 평균의 수렴을 의미한다.

이 또한 주목할 가치가 있다.

(4)

그때

특성.

확률 공간이 완성되는 경우:

  • → p p}\) Y{\ X 거의 확실하다.
  • n → X{\(와) n X=Y {\ X= 거의 확실하다.
  • If and , then almost surely.
  • If and , then (for any real numbers a b) 및 Y .
  • n → X{\ 다음 + b X+ b 실수 a b) X Y.
  • If and , then 실수 ab의 경우).
  • 위의 문구 중 어느 것도 분포의 수렴에 해당되지 않는다.

수렴의 다양한 개념들 사이의 함의 연쇄는 각각의 절에 명시되어 있다. 화살표 표기법을 사용하는 경우:

이러한 특성은 기타 여러 특수 사례와 함께 다음 목록에 요약되어 있다.

  • 수렴은 확률의 수렴을 의미한다고 거의 확실하다.[8][proof]
  • 확률의 수렴은 거의 확실히 수렴되는 하위 순서 n) 가 있음을 의미한다.[9]
  • 확률의 수렴은 분포의 수렴을 의미한다.[8][proof]
  • r-차 평균의 수렴은 확률의 수렴을 의미한다.
  • r-차 평균의 수렴은 두 순서가 모두 1보다 크거나 같다고 가정할 때 낮은 순서 평균의 수렴을 의미한다.
    제공된 r ≥ s ≥ 1
  • Xn 분포에서 상수 c로 수렴되는 경우, Xn 확률로 c:[8][proof]
    제공된 c는 상수다.
  • Xn 분포에서 X로 수렴되고 Xn Yn 차이가 확률에서 0으로 수렴되는 경우 Yn 분포에서 X로 수렴된다.[8][proof]
  • Xn 분포에서 X로 수렴되고 Yn 분포에서 상수 c로 수렴되는 경우, 이음매 벡터(Xn, Yn)가 분포에서(X , ) 로 수렴된다[8][proof]
    제공된 c는 상수다.
    Yn 상수로 수렴하는 조건이 중요하다는 점에 유의하십시오. 랜덤 변수 Y로 수렴할 경우 (Xn, Yn)(, ) 로 수렴한다고 결론을 내릴 수 없을 것이다.
  • Xn 확률에서 X로 수렴되고 Yn 확률에서 Y로 수렴되는 경우, 관절 벡터n(Xn, Y)[8][proof]는 확률에서 (X, Y)로 수렴한다.
  • Xn 확률로 X로 수렴되고, P(Xn b b)가 모든 n과 일부 b에 대해 1이면, Xn 모든 r 1에 대해 r번째 평균에서 X로 수렴한다. 즉, 확률로 Xn X로 수렴되고 모든 랜덤 변수 Xn 거의 확실히 위아래로 경계를 이루면 Xn 어떤 r번째 평균에서도 X로 수렴된다.[10]
  • 거의 확실하다. 일반적으로 분포의 수렴은 거의 확실하게 수렴을 의미하지 않는다. 그러나 분포에서0 X로 수렴되는 지정된 시퀀스 {Xn}의 경우 항상 새로운 확률 공간(Ω, F, P)과 랜덤 변수 {Yn, n = 0, 1, ...을 찾을 수 있다.}}은(는) n defined 0 대해 YXn 균등하게n 분포하고 Yn Y에 거의0 확실하게 수렴되도록 정의된다.[11][12]
  • 만약 모든 > > 0에 대해서,
    그러면 우리는 Xn 거의 완전히 또는 거의 확률적으로 X수렴된다고 말한다. Xn X를 향해 거의 완전히 수렴되면 X도 거의 확실히 X로 수렴한다. 즉 X가 충분히n 빨리 X로 확률을 수렴하면(, 위의 꼬리 확률 순서는 모든 for > 0에 대해 합산할 수 있다), Xn X로 거의 확실하게 수렴한다. 이것은 보렐-칸텔리 보조정리로부터 직접적인 함축이다.
  • Sn n개의 실제 독립 랜덤 변수의 합계인 경우:
    Sn 확률로 Sn 수렴할 경우에만 거의 확실하게 수렴한다.
  • 지배적인 정합화 정리는 L-정합성을1 암시하기에 거의 확실한 정합화를 위한 충분한 조건을 제공한다.

(5)

  • L1 수렴에 필요하고 충분한 조건은 → P 이며 시퀀스(Xn)는 균일하게 통합할 수 있다.

참고 항목

메모들

  1. ^ 비켈1998, A.8, 475페이지
  2. ^ 데르 바르트 & 웰너 1996, 페이지 4
  3. ^ 로마노 & 시겔 1985, 예 5.26
  4. ^ Durrett, Rick (2010). Probability: Theory and Examples. p. 84.
  5. ^ 반 데르 바르트 1998, 레마 2.2
  6. ^ 더들리 2002, 9.2장 287페이지
  7. ^ 더들리 2002 페이지 289
  8. ^ a b c d e f 반 데르 바르트 1998, 정리 2.7
  9. ^ Gut, Allan (2005). Probability: A graduate course. Theorem 3.4: Springer. ISBN 978-0-387-22833-4.{{cite book}}: CS1 maint : 위치(링크)
  10. ^ 그림메트 & 스터자커 2020, 페이지 354
  11. ^ 반 데르 바르트 1998년 2월 19일
  12. ^ 프리스트 & 그레이 1997, 정리 14.5

참조

  • Bickel, Peter J.; Klaassen, Chris A.J.; Ritov, Ya’acov; Wellner, Jon A. (1998). Efficient and adaptive estimation for semiparametric models. New York: Springer-Verlag. ISBN 978-0-387-98473-5.
  • Billingsley, Patrick (1986). Probability and Measure. Wiley Series in Probability and Mathematical Statistics (2nd ed.). Wiley.
  • Billingsley, Patrick (1999). Convergence of probability measures (2nd ed.). John Wiley & Sons. pp. 1–28. ISBN 978-0-471-19745-4.
  • Dudley, R.M. (2002). Real analysis and probability. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-80972-6.
  • Fristedt, Bert; Gray, Lawrence (1997). A Modern Approach to Probability Theory. New York: Springer Science+Business Media. doi:10.1007/978-1-4899-2837-5. ISBN 978-1-4899-2837-5.
  • Grimmett, G.R.; Stirzaker, D.R. (1992). Probability and random processes (2nd ed.). Clarendon Press, Oxford. pp. 271–285. ISBN 978-0-19-853665-9.
  • Jacobsen, M. (1992). Videregående Sandsynlighedsregning (Advanced Probability Theory) (3rd ed.). HCØ-tryk, Copenhagen. pp. 18–20. ISBN 978-87-91180-71-2.
  • Ledoux, Michel; Talagrand, Michel (1991). Probability in Banach spaces. Berlin: Springer-Verlag. pp. xii+480. ISBN 978-3-540-52013-9. MR 1102015.
  • Romano, Joseph P.; Siegel, Andrew F. (1985). Counterexamples in probability and statistics. Great Britain: Chapman & Hall. ISBN 978-0-412-98901-8.
  • Grimmett, Geoffrey R.; Stirzaker, David R. (2020). Probability and Random Processes (4th ed.). Oxford University Press. ISBN 978-0-198-84760-1.
  • van der Vaart, Aad W.; Wellner, Jon A. (1996). Weak convergence and empirical processes. New York: Springer-Verlag. ISBN 978-0-387-94640-5.
  • van der Vaart, Aad W. (1998). Asymptotic statistics. New York: Cambridge University Press. ISBN 978-0-521-49603-2.
  • Williams, D. (1991). Probability with Martingales. Cambridge University Press. ISBN 978-0-521-40605-5.
  • Wong, E.; Hájek, B. (1985). Stochastic Processes in Engineering Systems. New York: Springer–Verlag.

본 기사는 Creative Commons Attribution-ShareAlike 3.0 Unported License에 따라 허가되었지만 GFDL에 따라 허가되지 않은 Citizendium 기사 "Stopchastic Convergence"의 자료를 통합하고 있다.