성장함수

Growth function

분쇄 계수 또는 분쇄 수라고도 하는 성장 함수는 세트 계열의 풍요로움을 측정한다.특히 가설 수업의 복잡성을 측정하는 통계 학습 이론의 맥락에서 사용된다.'성장 기능'이라는 용어는 1968년 논문에서 Vapnik과 Chervonenkis에 의해 만들어졌는데, 여기서 그들은 또한 그것의 많은 특성들을 증명했다.[1]기계학습의 기본 개념이다.[2][3]

정의들

집합군 정의

을(를) 세트 패밀리(세트 세트)로 하고 을(를) 세트 집합으로 한다.이들의 교차점은 다음과 같은 집합체로 정의된다.

The intersection-size (also called the index) of with respect to is . If a set has elements then the index is at most . If the index is exactly H C 이(가) 의 모든 하위 세트를 포함하므로 세트 displaystyle C이(가) H 에 의해 산산조각 난다고 한다 즉,

성장 함수는 의 함수로 C}의 크기를 측정한다 정식으로:

가설 등급 정의

마찬가지로 을(를) 가설 클래스(이항 함수의 집합)로 하고 (를) 요소로 설정하도록 한다. 에서 C까지의 다음과 같이 H {\에서 파생될 수 있는 C 의 이진 함수 집합이다[3]: 45

성장함수는 C}의 함수로서 H 의 크기를 측정한다[3]: 49

어떤 x에 1. 도메인의 진정한 라인 R{\displaystyle \mathbb{R}}. 그 set-family H{H\displaystyle}, 형태의 세트\와 같이{\displaystyle\와 같이{x>, x_{0}\mid x\in \mathbb{R}{)>x0∣ x∈ R}}모든 half-lines자 수에서 양의 무한대로, 즉(광선)가 들어 있}0∈ R{\displays.tyle). For any set of real numbers, the intersection contains sets: the empty set, the set containing the largest element of , the set containing the two largest elements of 등.그러므로: ( ) = + 1 }[1]: Ex.1 . 이(가) 열린 하프라인, 닫힌 하프라인 또는 둘 다를 포함하든 마찬가지다.

2. 도메인은 세그먼트[ 세트 H 에는 모든 오픈 세트가 포함되어 있다.For any finite set of real numbers, the intersection contains all possible subsets of . There are such subsets, so

3. 도메인은 유클리드 공간 { ^{ 입니다세트 패밀리 에는 x x와) 같은 형태의 모든 반공간이 포함되며, 여기서 }은 고정 벡터다.그러면 (,m ) = (,m ) 여기서 Comp는 m 하이퍼플레인에 의한 n차원 공간의 분할에 있는 성분 수입니다.[1]: Ex.3

4. The domain is the real line . The set-family contains all the real intervals, i.e., all sets of the form for some . 실수의 C 에 대해 교차로 C 사이의 모든 런이 }의 연속적인 요소에 포함됨이러한 실행 횟수는(+ )+ 1 2}이므로 ( m)=( m+ )+ 1 2}이다

다항식 또는 지수

성장 함수를 흥미롭게 하는 주요 특성은 다항식 또는 지수식일 수 있다는 것이다. 그 중간에는 아무것도 없다.

다음은 교차로 크기의 특성이다.[1]: Lem.1

  • 만일, 일부의 경우 크기 하고, 일부 숫자의 경우, {\m}, C ( m
  • 다음, 크기가 n C =

이는 성장 함수의 다음 속성을 의미한다.[1]: Th.1 모든 H 에 대해 다음 두 가지 경우가 있다.

  • 지수 사례: (, m)= 동일하다.
  • 다항식 사례: is majorized by , where is the smallest integer for which .

기타 속성

사소한 상한

H H의 경우

모든 C H에 있는 원소의 는 최대H {\ H에 있으므로 성장 H {\\ H}가 무한할 때 주로 흥미롭다.

지수 상한

비어 있지 않은 의 경우

즉, 성장함수는 지수 상한을 가진다.

집합 패밀리 이(가) 교차점에 의 가능한 하위 집합이 모두 포함된 경우 집합 을(를) 산산조각 낸다고 우리는 말한다.. If shatters of size , then , which is the upper bound.

데카르트 교차로

두 세트 패밀리의 데카르트 교차로 정의:

.

다음:[2]: 57

유니온

두 세트 패밀리의 경우:[2]: 58

VC 치수

VC 치수는 다음 두 가지 경우에 따라 정의된다.

  • 다항식의 경우 im = - = , )= 2 {^{d
  • 지수적인 경우 ( )= .

따라서 (H) d { ( if-and-only-only Growth(, ) 2 표시 스타일

성장함수는 VC차원 개념의 정교화로 볼 수 있다.The VC dimension only tells us whether is equal to or smaller than , while the growth function tells us exactly how changes as a function of .

성장 기능과 VC 치수 사이의 또 다른 연결은 Sauer-Shelah 보조정리기가 제공한다.[3]: 49

()= 인 경우
모든 에 대해 성장 (, ) i= d ( )

특히.

모든 > + : ( , ) ( m/ d) d= ( )
따라서 VC 차원이 유한할 때 성장 함수는 과(와) 함께 다항식으로 성장한다

이 상한은 단단하다. 즉, m> d m}에 다음과 같은 [2]: 56 치수 d d}을를) 가진 H H(가) 존재한다.

엔트로피

성장 함수는 최대 교차로 크기와 관련이 있지만 엔트로피평균 교차로 크기와 관련이 있다.[1]: 272–273

교차로 크기는 다음과 같은 특성을 가지고 있다.모든 세트 패밀리 에 대해

따라서 다음과 같다.

더욱이, (, )/ m 시퀀스는 [ 로 수렴된다

또한 임의변수 / m 근처에 집중되어 있다

확률론에서의 적용

을(를) 확률 측정값 (가) 정의된 집합이 되도록 한다. 을(를) 의 하위 집합 계열로 두십시오(= 이벤트 계열).

요소를 포함하는 세트 을 선택한다고 가정합시다 여기서 각 요소는 다른 요소와 독립적으로 확률 측정 에 따라 랜덤하게 선택된다.각 이벤트 에 대해 다음 두 가지 양을 비교한다

  • m/ ;
  • 확률 [h

D ( , m ) c m / - [ 의 차이에 관심이 있다.} 이 차이는 다음 상한을 만족한다.

이 값은 다음과 같다.[1]: Th.2

모든 이벤트에 대해 빈도가 확률에 가까울 확률은 H 의 성장 기능에 따라 달라지는 식에 의해 더 낮은 경계가 된다

A corollary of this is that, iff the growth function is polynomial in (i.e, there exists some such that ), then the above probability approaches 1 as . I.e 패밀리는 확률상 균일한 합치를 즐긴다.

참조

  1. ^ a b c d e f g h Vapnik, V. N.; Chervonenkis, A. Ya. (1971). "On the Uniform Convergence of Relative Frequencies of Events to Their Probabilities". Theory of Probability & Its Applications. 16 (2): 264. doi:10.1137/1116025. 이것은 B의 영어 번역본이다.러시아 신문의 세클러:"균일 컨버전스 상대 Frequencies의 사건들의 그들의 Probabilities에".Dokl.Akad.Nauk.181(4):781.1968년.그 번역 Vapnik, VN;Chervonenkis, A. 응.(2015년):복제 했다."균일 컨버전스 상대 Frequencies의 사건들의 그들의 Probabilities에".복잡함의 조치. p. 11.doi:10.1007/978-3-319-21852-6_3.아이 에스비엔 978-3-319-21851-9.
  2. ^ a b c d Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning. USA, Massachusetts: MIT Press. ISBN 9780262018258., 특히 섹션 3.2
  3. ^ a b c d Shalev-Shwartz, Shai; Ben-David, Shai (2014). Understanding Machine Learning – from Theory to Algorithms. Cambridge University Press. ISBN 9781107057135.