랜덤 변수의 농도를 설명하는 수학적 부등식
확률론 에서, 농도 부등식 은 랜덤 변수가 어떤 값(일반적으로 기대값 )에서 어떻게 벗어나는지에 대한 경계를 제공합니다.고전 확률론의 대수의 법칙 은 독립 랜덤 변수의 합계가 매우 가벼운 조건에서 큰 확률로 기대치에 가깝다고 말합니다.이러한 합계는 평균 주위에 집중된 랜덤 변수의 가장 기본적인 예입니다. 최근의 결과는 그러한 동작이 독립적인 랜덤 변수의 다른 함수에 의해 공유된다는 것을 보여준다.
농도 부등식은 랜덤 변수를 사용하기 위해 필요한 정보의 양에 따라 분류할 수 있다.
마르코프 부등식 X를 음이 아닌 랜덤 변수(거의 확실하게) 로 합니다 .다음으로 상수 a > 0 { style a > 0 } 에 대해
PR ( X ≥ a ) ≤ E ( X ) a . {\displaystyle\Pr(X\geq a)\leq {frac {operatorname {E}(X)}{a}} } 마르코프 부등식에 대한 다음의 확장에 주목하라: 만약 δ (\displaystyle \Phi) 가 엄밀하게 증가하고 음이 아닌 함수라면,
PR ( X ≥ a ) = PR ( Φ ( X ) ≥ Φ ( a ) ) ≤ E ( Φ ( X ) ) Φ ( a ) . (\displaystyle \Pr(X\geq a)=\Pr(\Phi(X)\geq \Phi(a))\leq {frac {E}(\Phi(X)}), {\Phi(a)}). } 체비셰프 부등식 체비셰프의 부등식에는 랜덤 변수 X(\displaystyle X) 에 대한 다음 정보가 필요합니다.
예상값 E [ [ X ] \ displaystyle \operatorname { E } [ X ] 는 유한합니다. 분산 변수 [ [ X ]= E [ [ ( X - E [ [ X ] ) 2 ]{ displaystyle \operatorname {Var } [X]=\operatorname {E} [X]) ^{2}]} 은 (는) 유한합니다. 다음으로 상수 a > 0 { style a > 0 } 에 대해
PR ( X − E [ X ] ≥ a ) ≤ 변동 [ X ] a 2 , {\displaystyle \Pr(X-\operatorname {E} [X] \geq a)\leq {frac {operatorname {Var} {a^{2}}, 또는 동등하게
PR ( X − E [ X ] ≥ a ⋅ 표준 [ X ] ) ≤ 1 a 2 , \displaystyle \Pr( X-\operatorname {E} [X]\geq a\cdot \operatorname {Std} [X])\leq {frac {1}{a^{2}}}} 여기 서 Std [ [ X ]{ displaystyle \operatorname { Std } [ X ] 는 X의 표준 편차입니다.
체비셰프의 부등식은 δ (x ) = x 2 (x) = x {2 }} 인 랜덤 변수 X - E [ [ X ] {style X-\operatorname {E} [X] } 에 적용되는 일반화 마르코프 부등식의 특별한 경우로 볼 수 있다.
비소찬스키-페투닌 부등식 X를 단일 분포, 평균 μ 및 유한, 0이 아닌 분산 θ를2 갖는 랜덤 변수라고 가정 합니다. 다음으로 8 > 8 3 = 1.63299... 에 대해 {\textstyle \taxda > {\taxrt {8} {3} = 1.63299...,}
P ( X − μ ≥ λ σ ) ≤ 4 9 λ 2 . (\displaystyle P(\left X-\mu \right \geq \lambda \sigma )\leq {frac {4}{9\lambda ^{2}}). } (상대적인 기본적인 증명에 대해서는 예를 참조해 주세요).
일방 비소찬스키-페투닌 부등식 유니모달 랜덤 변수 X(\displaystyle X ) 및 r {\ 0(\displaystyle r\geq 0) 의 경우 단측 Vysochanskij-Petunin 부등식은[2] 다음과 같습니다.
P ( X − E [ X ] ≥ r ) ≤ { 4 9 V a r ( X ) r 2 + V a r ( X ) 위해서 r 2 ≥ 5 3 V a r ( X ) , 4 3 V a r ( X ) r 2 + V a r ( X ) − 1 3 그렇지않으면. \displaystyle \mathbb {P}(X-E[X]\geq r)\leq {\begin{cases}{\dfrac {4}{9}} {\dfrac {Var(X)} {r^{2}+Var(X)}} {\mbox{2\geq} {3frac} {9} }}\end {case}}
팔레-지그문트 부등식
칸텔리의 부등식
가우스 부등식
체르노프 경계 일반적인 체르노프[3] : 63–65 바운드에는 다음 과 같이 정의 된 X(\displaystyle X):= E [ e t X ](M X ( t ) : = E [ e t X ] \ displaystyle M _ { X } ( t ) : =\operatorname {E} \!\left[ e^{tX}\ right]( 존재하는 경우).마르코프 부등식을 바탕으로 t > 0 { displaystyle t > 0 }마다 다음과 같이 계산됩니다.
PR ( X ≥ a ) ≤ E [ e t ⋅ X ] e t ⋅ a , \displaystyle \Pr(X\geq a)\leq {frac {operatorname {E} [e^{t\cdot X}} {e^{t\cdot a}}} 및 t < 0 { displaystyle t < 0 }마다:
PR ( X ≤ a ) ≤ E [ e t ⋅ X ] e t ⋅ a . \displaystyle \Pr(X\leq a)\leq {frac {operatorname {E} [e^{t\cdot X}} {e^{t\cdot a}}}. } 모수 t\displaystyle t의 분포와 값에는 다양한 체르노프 경계가 있습니다. 더 많은 농도 부등식의 집계에 대해서는 을 참조하십시오.
독립 변수의 합계에 대한 한계 X 1, X 2, …, X n(\displaystyle X_{1 }, X_{ 2},\dots,X_{n}) 을 다음 과 같은 독립된 랜덤 변수로 합니다 .
a i i i b i i i i i i i i i i style displaystyle a _ { i } leq X _ { i } leq b _ { i } 。 c i := b i − a i {\displaystyle c_{i}:=b_{i}-a_{i}} ∀ i : c i ≤ C \displaystyle \forall i:c_{i}\leq C} Sn (\ displaystyle S_{n}) 을 합계, En (\ displaystyle E_{n}) 을 기대값 , Vn (\ displaystyle V_{n })을 분산값으로 합니다 .
S n := ∑ i = 1 n X i {{displaystyle S_{n}:=\sum _{i=1}^{n}X_{i}} E n := E [ S n ] = ∑ i = 1 n E [ X i ] {\displaystyle E_{n}: =\operatorname {E} [S_{n}]=\sum _{i=1}^{n}\operatorname {E}[X_{i}}} V n := 변동 [ S n ] = ∑ i = 1 n 변동 [ X i ] {\displaystyle V_{n}:=\operatorname {Var}[S_{n}=\sum _{i=1}^{n}\operatorname {Var}[X_{i}}} 합계와 기대치 사이의 차이를 제한하는 것은 종종 흥미롭다. 몇 가지 부등식을 사용할 수 있다.
1. 호핑의 부등식 은 다음과 같다.
PR [ S n − E n > t ] < > 2 exp ( − 2 t 2 ∑ i = 1 n c i 2 ) < > 2 exp ( − 2 t 2 n C 2 ) \displaystyle \Pr \left [ S _ { n } - E _ { n } > t \ right ]< 2 \ exp \ exp \ frac { 2 t ^ { 2 } { \ sum _ { i = n } c _ { i } { i } } { n } } } { right } < 2 } 2. 랜덤 변수 S n - E n \ displaystyle S _ { n } - E _ { n }는 마티게일 의 특수한 경우이며, S 0 - E 0 = 0 \ displaystyle S_{0} - E_{0 } = 0 입니다. 따라서, 아즈마 부등식 의 일반적인 형태도 사용할 수 있으며, 이는 유사한 경계를 산출한다.
PR [ S n − E n > t ] < > 2 exp ( − 2 t 2 ∑ i = 1 n c i 2 ) < > 2 exp ( − 2 t 2 n C 2 ) \displaystyle \Pr \left [ S _ { n } - E _ { n } > t \ right ]< 2 \ exp \ exp \ frac { 2 t ^ { 2 } { \ sum _ { i = n } c _ { i } { i } } { n } } } { right } < 2 } 이것은 슈퍼마틴갈레와 서브마틴갈레 뿐만 아니라 다른 종류의 마틴갈레도 다룰 수 있기 때문에 Hooffding's의 일반화이다. 더 단순한 형태의 아즈마 부등식을 사용하면 경계에 있는 지수가 4배 더 나빠집니다.
3. S n = f ( X 1 , ... , X n ) { displaystyle S _ { n } = f ( X _ {1} , \ dots , X _ { n } )는 n 변수 함수의 특수 한 경우이다. 이 함수는 제한적으로 변화한다.변수 i가 변경되면 f의 값 은 최대 b i - a < i _ c \ displaystyle b _ { i } - a _ { i } < C }만큼 변화한다.따라서 McDiarmid의 부등식 을 사용할 수도 있고 다음과 같은 경계가 생성된다.
PR [ S n − E n > t ] < > 2 exp ( − 2 t 2 ∑ i = 1 n c i 2 ) < > 2 exp ( − 2 t 2 n C 2 ) \displaystyle \Pr \left [ S _ { n } - E _ { n } > t \ right ]< 2 \ exp \ exp \ frac { 2 t ^ { 2 } { \ sum _ { i = n } c _ { i } { i } } { n } } } { right } < 2 } 이것은 합함수 이외의 다른 함수가 유계적으로 변화하기만 하면 처리할 수 있기 때문에 Hooffding의 다른 일반화입니다.
4. Bennett의 부등식 은 Summands의 분산이 거의 확실한 경계 C에 비해 작을 때 Hoffding의 부등식보다 어느 정도 개선된다.다음과 같이 되어 있습니다.
Pr [ S n - E n > t ] 2 2 exp [ [ - V n C 2 h ( C t V n ) ] , { displaystyle \ Pr \ left [ S _ { n } - E _ { n } > t \ right } \ leq 2 \ exp \ [ - { - { \ frac { V _ n } { n } } } } { c } ( { h } 5. 번스타인의 첫 번째 불평등 은 다음과 같다.
PR [ S n − E n > t ] < > 2 exp ( − t 2 / 2 V n + C ⋅ t / 3 ) \displaystyle \Pr \left [ S _ { n } - E _ { n } > t \ right ]< 2 \ exp \ left ( - \ frac { t^ {2} / 2) { V _ { n } + C \ cdot t/3} \ right } 이것은 거의 확실한 한계뿐만 아니라 거의 확실한 한계와 분산 한계를 가진 랜덤 변수를 처리할 수 있기 때문에 Hooffding의 일반화입니다.
6. 체르노프 경계는 독립 변수의 합계의 경우 E [ [ e t s S n ] = i = 1 n E [ [ e t x X i ] \ display \operatorname { E } [ e ^ { t \ cdot S _ { n } = prod { n }^{ n } ^{ n } }이후 특히 단순 한 형태를 가진다.
예를 [5] 들어 변수 X i (\displaystyle X_{i })가 X i eE ( X i )를 만족 한다고 가정합니다. i - M ( \ displaystyle X _ { i } \ geq E ( X _ { i } ) - a _ { i } - M then 、 1 then i then n \ displaystyleq then then then then then then then then then then 。
PR [ S n − E n < > − λ ] ≤ exp ( − λ 2 2 ( V n + ∑ i = 1 n a i 2 + M λ / 3 ) ) \displaystyle \Pr[S_{n}-E_{n}<-\lambda]\leq \exp \leftp {\frac {\frac ^{2}{2(V_{n}+\sum _{i}^{n}a_{i}^2}+M\lambda/3)}\right} Xi (\ displaystyle X_{i}) 가 Xi e E(Xi ) + a + M (\displaystyle X_{i}\leq E(X_{i}) + a_{i}+M }) 를 만족 하는 경우 상단 꼬리 부등식이 있습니다.
PR [ S n − E n > λ ] ≤ exp ( − λ 2 2 ( V n + ∑ i = 1 n a i 2 + M λ / 3 ) ) \displaystyle \Pr[S_{n}-E_{n}>\lambda]\leq \exp \leftp {\frac {\frac ^{2}{2(V_{n}+\sum _{i}^{n}a_{i}^2}+M\lambda/3)}}\right} Xi (\ displaystyle X_{i}) 가 i.i.d, Xi 1 1(\displaystyle X_ {i }) 및 2 2(\ displaystyle \sigma ^{2}) 인 경우 체르노 부등식의 일반적 인 버전은 다음 과 같습니다.
PR [ S n ≥ k σ ] ≤ 2 e − k 2 / 4 n 위해서 0 ≤ k ≤ 2 σ . \displaystyle \Pr[S_{n} \geq k\sigma]\leq 2e^{-k^{2}/4n}{\text{ for }0\leq k\leq 2\sigma } 7. Rademacher distribution #Bounds on sums에서도 같은 경계를 찾을 수 있습니다.
에프론-스타인 부등식 Efron-Stein 부등식(또는 영향 부등식 또는 분산에 대한 MG 한계)은 일반 함수의 분산을 제한합니다.
X 1 ... X n \ display style X_{1 } \ dots X_{n } , X 1 … ... X n {\ \ display X_{1} ' \ dots X_{n}' 은 X i {\ \ display style X_{ i } 및 X i {display X_n} 에서 독립 되어 있다고 가정합니다.
X = ( X 1 , ... , X n ) , X ( i ) = ( X 1 , ... , X i - 1 , X i † , X i + 1, ... , X n ) . { display X = ( X _ { 1 , \ dots , X _ { n } , X^ { i } \ DOTs = { 1 } ) 。} 그럼
V a r ( f ( X ) ) ≤ 1 2 ∑ i = 1 n E [ ( f ( X ) − f ( X ( i ) ) ) 2 ] . {\displaystyle \mathrm {Var}(f(X)}\leq {frac {1}{2}}\sum _{i=1}^{n}E[(f(X)-f(X^{(i)})})} ^{2}].}
브르타놀레 휴버-카롤 부등식 브르타놀레 Huber-Carol 부등식은 다원적으로 분포된 랜덤 변수의 벡터와 기대치의 벡터 사이의 차이를 제한합니다. [6] [7] 간단한 증거는 (부록 섹션)에 나와 있습니다.
랜덤 벡터(Z 1, Z 2 , Z 3 , …, Z n ) {displaystyle (Z_{1}, Z_{2 }, Z_{3},\ldots , Z_{n}) 가 파라미터(p 1, p 2 , …, p n) {displaystyle (p_1}, {n2}, \ldots }, \displaystyle (p_{n })와 함께 다원 분산되어 있는 경우 그러면 Z_{n}= M,}
PR ( ∑ i = 1 n Z i − M p i ≥ 2 M ε ) ≤ 2 n e − 2 M ε 2 . \displaystyle \Pr \left(\sum _{i=1}^{n} Z_{i}-Mp_{i} \geq 2M\varepsilon \right)\leq 2^{n}e^{-2M\varepsilon ^{2}}. } 이 부등식은 총 변동 거리를 제한하는 데 사용됩니다.
메이슨과 반즈벳의 부등식 다항 랜덤 벡터에 대한 Mason과 van Zwet 부등식은[9] 고전적인 카이-제곱 통계량의 약간의 수정과 관련이 있습니다.
랜덤 벡터(N 1, …, N k ) {displaystyle (N_{1},\ldots,N_{k}) {displaystyle n} 및 (p 1, …, p k ) {displaystyle (p_{1},\ldots,p_ {k }) {displaystyle p_0} (i }) 를 사용하여 다방식 으로 분산 시킵니다. 모든 C을}그리고 나서;0{\displaystyle C>0}과δ>0{\displaystyle \delta>0}모든 n≥ 1{\displaystyle n\geq 1}과 λ, p1,…, pk에 정수 a, b, c>;0,{\displaystyle a,b,c>0,}가 − 1{\displaystyle\lambda ,p_{1},\ldots ,p_{k-1}}을 만족시키 λ 존재합니다.>Cn분{p) 1 ≤ i 、 k - 1 、 { display style \ displayda > Cn \min \ { p _ p _ { i } 1 \leq k - 1 } and i i i i i i 、 i i i = 1 k - " 、 \ displaystyle _ { i = 1 }^{ k - 1 p _ k - { i } p _ i } \ leq 1 \ leq 1 } 、
PR ( ∑ i = 1 k − 1 ( N i − n p i ) 2 n p i > λ ) ≤ a e b k − c λ . \displaystyle \Pr \left(\sum _{i=1}^{k-1}{\frac {(N_{i}-np_{i}}}>\lambda \right)\leq ae^{bk-c\lambda } } }
드보레츠키-키퍼-울포위츠 부등식 드보레츠키-키퍼-울포위츠 부등식은 실제 누적분포함수 와 경험적 누적분포함수 의 차이를 제한한다.
자연수 n(\displaystyle n) 을 지정 하면 X 1 , X 2, …, X n (\displaystyle X_{1}, X_{2},\dots,X_{n}) 은 누적분포함수 F(·)를 갖는 독립적이고 동일한 분포 랜덤 변수 입니다.Fn {\displaystyle F_{ n }}은 다음과 같이 정의된 관련 경험적 분포 함수를 나타냅니다.
F n ( x ) = 1 n ∑ i = 1 n 1 { X i ≤ x } , x ∈ R . {\displaystyle F_{n}(x)=frac {1}{n}\sum _{i=1}^{n}\mathbf {1}_{X_{i}\leq x\},\qquad x\in \mathbbb {R}} 따라서 F( x ) {displaystyle F(x)} 는 단일 랜덤 변수 X(\ displaystyle X) 가 x(\displaystyle x) 보다 작을 확률 이며 F(x ) {displaystyle F_{n}(x) 는 x(\displaystyle x) 보다 작은 평균 랜덤 변수 수입니다.
그리고나서
PR ( 셧 x ∈ R ( F n ( x ) − F ( x ) ) > ε ) ≤ e − 2 n ε 2 모든 것에 대해서 ε ≥ 1 2 n 인 2 . \displaystyle \Pr \left(\sup _{x\in \mathbb {R}} {\bigl (}F_{n}(x)-F(x){\bigr}}>\leq e^{-2n\varepsilon^{2}}{\text}}\arechqs\rtext}{\biglon {\}}}}\rtext}\biglon\rts\rts\rtext}{\rtext}{{\rt}}{\rt}} } 반농축 불평등 반면 , 반농도 부등식 은 랜덤 변수가 양 주위에 얼마나 집중될 수 있는지에 대한 상한 을 제공한다.
예를 들어 Rao 및 Yehudayoff는[10] 하이퍼큐브x { { ± 1 }n (\ displaystyle x\in \{\pm 1\}^n }) 의 대부분의 방향에 대해 다음과 같은 C > 0 (\displaystyle C> 0) 이 존재함을 나타냅니다.
PR ( ⟨ x , Y ⟩ = k ) ≤ C n , \displaystyle \Pr \left(\displaystyle x,Y\rangle =k\right)\leq {frac {C}{\sqrt {n}}}. 여기 서 Y(\ displaystyle Y) 는 충분한 크기의 하위 집합 B { { ± 1 } n(\displaystyle B\subseteq \{\pm 1\}^{ n}) 에서 균일하게 그려집니다.
그러한 불평등은 통신 복잡성 (예: 격차 해밍 [11] 문제의 증거)과 그래프 [12] 이론을 포함 한 여러 분야에서 중요하다.
독립 Rademacher 랜덤 변수의 가중치 합계에 대한 흥미로운 반농도 부등식은 Paley-Zygmund 및 Kintchine [13] 부등식을 사용하여 얻을 수 있다.
레퍼런스 ^ Pukelsheim, F., 1994. 스리 시그마 룰 미국 통계학자 , 48(2), 페이지 88-91 ^ Mercadier, Mathieu; Strobel, Frank (2021-11-16). "A one-sided Vysochanskii-Petunin inequality with financial applications" . European Journal of Operational Research . 295 (1): 374–377. doi :10.1016/j.ejor.2021.02.041 . ISSN 0377-2217 . ^ Mitzenmacher, Michael; Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis . Cambridge University Press. ISBN 0-521-83540-2 . ^ Slagle, N.P. (2012). "One Hundred Statistics and Probability Inequalities" . ^ Chung, Fan ; Lu, Linyuan (2010). "Old and new concentration inequalities" (PDF) . Complex Graphs and Networks . American Mathematical Society . Retrieved August 14, 2018 . ^ Bretagnolle, Jean; Huber, Catherine (1978). "Lois empiriques et distance de Prokhorov". Lecture Notes in Mathematics . 649 : 332--341. ^ van der Vaart, A.W.; Wellner, J.A. (1996). Weak convergence and empirical processes: With applications to statistics . Springer Science & Business Media. ^ Yuto Ushioda; Masato Tanaka; Tomomi Matsui (2022). "Monte Carlo Methods for the Shapley–Shubik Power Index". Games . 13 (3): 44. doi :10.3390/g13030044 . ^ Mason, David M.; Willem R. Van Zwet (1987). "A Refinement of the KMT Inequality for the Uniform Empirical Process". The Annals of Probability . 15 (3): 871–884. ^ Rao, Anup; Yehudayoff, Amir (2018). "Anti-concentration in most directions" . Electronic Colloquium on Computational Complexity. ^ Sherstov, Alexander A. (2012). "The Communication Complexity of Gap Hamming Distance" . Theory of Computing . ^ Matthew Kwan; Benny Sudakov; Tuan Tran (2018). "Anticoncentration for subgraph statistics". Journal of the London Mathematical Society . 99 (3): 757–777. arXiv :1807.05202 . Bibcode :2018arXiv180705202K . doi :10.1112/jlms.12192 . S2CID 54065186 . ^ Veraar, Mark (2009). "On Khintchine inequalities with a weight". arXiv :0909.2586v1 [math.PR ]. 외부 링크 Karthik Sridharan, "집중력 불평등에 대한 부드러운 입문 " - Cornell 대학교