농도 부등식

Concentration inequality

확률론에서, 농도 부등식은 랜덤 변수가 어떤 값(일반적으로 기대값)에서 어떻게 벗어나는지에 대한 경계를 제공합니다.고전 확률론의 대수의 법칙은 독립 랜덤 변수의 합계가 매우 가벼운 조건에서 큰 확률로 기대치에 가깝다고 말합니다.이러한 합계는 평균 주위에 집중된 랜덤 변수의 가장 기본적인 예입니다.최근의 결과는 그러한 동작이 독립적인 랜덤 변수의 다른 함수에 의해 공유된다는 것을 보여준다.

농도 부등식은 랜덤 변수를 사용하기 위해 필요한 정보의 양에 따라 분류할 수 있다.

마르코프 부등식

음이 아닌 랜덤 변수(거의 확실하게 합니다.다음으로 a> { a > 에 대해

마르코프 부등식에 대한 다음의 확장에 주목하라: 만약(\ 엄밀하게 증가하고 음이 아닌 함수라면,

체비셰프 부등식

체비셰프의 부등식에는 랜덤 X X에 대한 다음 정보가 필요합니다.

  • E [ \ { } [ X 유한합니다.
  • 변수 [ ] [ ( - E [ ) } [X]=\(는) 유한합니다.

다음으로 a> { a > 에 대해

또는 동등하게

서 Std [ { [ X의 편차입니다

체비셰프의 부등식은 ( (=x {인 랜덤 X - [ { [ 적용되는 일반화 마르코프 부등식의 특별한 경우로 볼 수 있다.


비소찬스키-페투닌 부등식

X를 단일 분포, 평균 μ 및 유한, 0이 아닌 분산 θ를2 갖는 랜덤 변수라고 가정합니다.다음으로 > 8 31.63299에 대해 {\> {\ {3}

(상대적인 기본적인 증명에 대해서는 예를 참조해 주세요).


일방 비소찬스키-페투닌 부등식

랜덤 X(\) r0(\r 0의 경우 단측 Vysochanskij-Petunin 부등식은[2] 다음과 같습니다.


팔레-지그문트 부등식


칸텔리의 부등식


가우스 부등식


체르노프 경계

일반적인 체르노프[3]: 63–65 바운드에는 과 같이 X(\X E [ e t ](X ( ) : E [ X \ _ { } ( ) : {e^{right존재하는 경우).마르코프 부등식을 바탕으로 t> { t > }마다 다음과 같이 계산됩니다.

t< { < 0}마다:

t\t의 분포와 값에는 다양한 체르노프 경계가 있습니다. 더 많은 농도 부등식의 집계에 대해서는 을 참조하십시오.

독립 변수의 합계에 대한 한계

1, 2, n(\},2},\ 다음과 같은 독립된 랜덤 변수로 .

a i i i i i i i i i i i i displaystyle a {} X { i } leq b {i } 。

합계, , })을 분산값으로 .

합계와 기대치 사이의 차이를 제한하는 것은 종종 흥미롭다.몇 가지 부등식을 사용할 수 있다.

1. 호핑의 부등식은 다음과 같다.

2. 랜덤 S - n \ S _ { } - _ { }는 마티게일의 특수한 경우이며, 0 - 0 \ - 0 입니다.따라서, 아즈마 부등식의 일반적인 형태도 사용할 수 있으며, 이는 유사한 경계를 산출한다.

이것은 슈퍼마틴갈레와 서브마틴갈레뿐만 아니라 다른 종류의 마틴갈레도 다룰 수 있기 때문에 Hooffding's의 일반화이다.더 단순한 형태의 아즈마 부등식을 사용하면 경계에 있는 지수가 4배 더 나빠집니다.

3. S ( 1, , n) { S _ { n }f ( { , \ , X _ { n})는 n 변수 함수의 특수한 경우이다.이 함수는 제한적으로 변화한다.변수 i가 변경되면 f의 b - <_ c \ { i} - a _ {} < C}만큼 변화한다.따라서 McDiarmid의 부등식을 사용할 수도 있고 다음과 같은 경계가 생성된다.

이것은 합함수 이외의 다른 함수가 유계적으로 변화하기만 하면 처리할 수 있기 때문에 Hooffding의 다른 일반화입니다.

4. Bennett의 부등식은 Summands의 분산이 거의 확실한 경계 C에 비해 작을 때 Hoffding의 부등식보다 어느 정도 개선된다.다음과 같이 되어 있습니다.

[ - n> ] exp [ - n 2 ( C n ) ,{ \ \ left [ S { } - E {} > \ } \ \ \ [ - { - { \ { _ n } { } } } } { { }

5. 번스타인의 첫 번째 불평등은 다음과 같다.

이것은 거의 확실한 한계뿐만 아니라 거의 확실한 한계와 분산 한계를 가진 랜덤 변수를 처리할 수 있기 때문에 Hooffding의 일반화입니다.

6. 체르노프 경계는 독립 변수의 합계의 경우 E [ t S ] E [ i \ } [ ^ { \ S { n } = { }^{ n } ^{ n } } 특히 한 형태를 가진다

예를 [5]들어 변수 i (\})가 i ( i)를 한다고 가정합니다 -M ( \ X _ { } \ ( X _ { i } ) - a _ { i} - 1 i n\ then then then then then then then

X_ E( + +(\ E + 하는 상단 꼬리 부등식이 있습니다.

i.i.d, 1 2^{ 체르노 부등식의 인 버전은 과 같습니다.

7. Rademacher distribution #Bounds on sums에서도 같은 경계를 찾을 수 있습니다.

에프론-스타인 부등식

Efron-Stein 부등식(또는 영향 부등식 또는 분산에 대한 MG 한계)은 일반 함수의 분산을 제한합니다.

1 \ X_} \ , ... X \ ' \ i{\ \ i} Xi {X_n에서 되어 가정합니다.

( 1 , , ) , ( ) ( 1, ,i - , X , i +1, ,n ). { X = ( { , \ , X _ { } , { i } \ = { 1 } ) 。 그럼

브르타놀레휴버-카롤 부등식

브르타놀레Huber-Carol 부등식은 다원적으로 분포된 랜덤 변수의 벡터와 기대치의 벡터 사이의 차이를 제한합니다.[6][7] 간단한 증거는 (부록 섹션)에 나와 있습니다.

랜덤 벡터1, , Z, {}, 파라미터(1, p, n { { \}, \displaystyle (})와 함께 다원 분산되어 있는 경우M

이 부등식은 총 변동 거리를 제한하는 데 사용됩니다.

메이슨과 반즈벳의 부등식

다항 랜덤 벡터에 대한 Mason과 van Zwet 부등식은[9] 고전적인 카이-제곱 통계량의 약간의 수정과 관련이 있습니다.

랜덤 벡터1, { { n (1, p { {displaystyle ( 사용하여 으로 시킵니다.모든 C을}그리고 나서;0{\displaystyle C>0}과δ>0{\displaystyle \delta>0}모든 n≥ 1{\displaystyle n\geq 1}과 λ, p1,…, pk에 정수 a, b, c>;0,{\displaystyle a,b,c>0,}가 − 1{\displaystyle\lambda ,p_{1},\ldots ,p_{k-1}}을 만족시키 λ 존재합니다.>Cn분{p) - 1、 { style \ \\ { p p { } 1 \ - 1} i i i ii i 、 i - " \ _ { i= 1 }^{ k - p _ k - { i } p _ i } \ 1 \ 1} 、

드보레츠키-키퍼-울포위츠 부등식

드보레츠키-키퍼-울포위츠 부등식은 실제 누적분포함수와 경험적 누적분포함수의 차이를 제한한다.

n(\ n하면 X, 2, (\ 누적분포함수 F(·)를 갖는 독립적이고 동일한 분포 랜덤 변수입니다.{\n}}은 다음과 같이 정의된 관련 경험적 분포 함수를 나타냅니다.

F { F 단일 랜덤 X X x(\x보다 작을 이며 F( {x(\x보다 작은 평균 랜덤 변수 수입니다.

그리고나서

반농축 불평등

반면, 반농도 부등식은 랜덤 변수가 양 주위에 얼마나 집중될 수 있는지에 대한 상한을 제공한다.

예를 들어 Rao 및 Yehudayoff는[10] { ± x 1의 대부분의 방향에 대해 다음과 같은 C>(\ C> 존재함을 나타냅니다.

서 Y Y 충분한 크기의 하위 B{{ ± n B\subseteq \{\ 1n에서 균일하게 그려집니다.

그러한 불평등은 통신 복잡성(예: 격차 해밍[11] 문제의 증거)과 그래프 [12]이론을 포함한 여러 분야에서 중요하다.

독립 Rademacher 랜덤 변수의 가중치 합계에 대한 흥미로운 반농도 부등식은 Paley-ZygmundKintchine [13]부등식을 사용하여 얻을 수 있다.

레퍼런스

  1. ^ Pukelsheim, F., 1994.스리 시그마 룰미국 통계학자, 48(2), 페이지 88-91
  2. ^ Mercadier, Mathieu; Strobel, Frank (2021-11-16). "A one-sided Vysochanskii-Petunin inequality with financial applications". European Journal of Operational Research. 295 (1): 374–377. doi:10.1016/j.ejor.2021.02.041. ISSN 0377-2217.
  3. ^ Mitzenmacher, Michael; Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. Cambridge University Press. ISBN 0-521-83540-2.
  4. ^ Slagle, N.P. (2012). "One Hundred Statistics and Probability Inequalities".
  5. ^ Chung, Fan; Lu, Linyuan (2010). "Old and new concentration inequalities" (PDF). Complex Graphs and Networks. American Mathematical Society. Retrieved August 14, 2018.
  6. ^ Bretagnolle, Jean; Huber, Catherine (1978). "Lois empiriques et distance de Prokhorov". Lecture Notes in Mathematics. 649: 332--341.
  7. ^ van der Vaart, A.W.; Wellner, J.A. (1996). Weak convergence and empirical processes: With applications to statistics. Springer Science & Business Media.
  8. ^ Yuto Ushioda; Masato Tanaka; Tomomi Matsui (2022). "Monte Carlo Methods for the Shapley–Shubik Power Index". Games. 13 (3): 44. doi:10.3390/g13030044.
  9. ^ Mason, David M.; Willem R. Van Zwet (1987). "A Refinement of the KMT Inequality for the Uniform Empirical Process". The Annals of Probability. 15 (3): 871–884.
  10. ^ Rao, Anup; Yehudayoff, Amir (2018). "Anti-concentration in most directions". Electronic Colloquium on Computational Complexity.
  11. ^ Sherstov, Alexander A. (2012). "The Communication Complexity of Gap Hamming Distance". Theory of Computing.
  12. ^ Matthew Kwan; Benny Sudakov; Tuan Tran (2018). "Anticoncentration for subgraph statistics". Journal of the London Mathematical Society. 99 (3): 757–777. arXiv:1807.05202. Bibcode:2018arXiv180705202K. doi:10.1112/jlms.12192. S2CID 54065186.
  13. ^ Veraar, Mark (2009). "On Khintchine inequalities with a weight". arXiv:0909.2586v1 [math.PR].

외부 링크

Karthik Sridharan, "집중력 불평등에 대한 부드러운 입문" - Cornell 대학교