오류 허용(PAC 학습)
Error tolerance (PAC learning)| 시리즈의 일부 |
| 기계 학습 및 데이터 마이닝 |
|---|
오류 허용(PAC 학습)
PAC 학습에서 에러 톨러런스란 수신된 예가 어떤 식으로든 파손되었을 때 학습할 수 있는 알고리즘의 기능을 말합니다.실제로, 이것은 매우 일반적이고 중요한 문제입니다. 왜냐하면 많은 애플리케이션에서는 노이즈가 없는 데이터에 액세스할 수 없기 때문입니다.노이즈는 다양한 레벨에서 학습 프로세스를 방해할 수 있습니다.알고리즘이 가끔 잘못된 라벨이 붙은 데이터를 수신하거나 입력에 잘못된 정보가 포함되어 있거나 예제의 분류가 악의적으로 혼입되어 있을 수 있습니다.
표기법과 Valiant 학습 모델
다음 중를 으로 H 를X에 정의된 { \0, 값 목표 f(\ f를 학습하기 위해 사용하는 함수 클래스라고 합니다.D를 Xdisplaystyle)에 대한 입력 분포라고 . X 의 목표는 (h ) x ~ ( ) ( )= < ( h ) = < displaystyle ( h ) f f{f의 을 측정할 수 있는 z { size가 있다고 가정합니다.예를 들어 은x가 반환될 때마다 Oracle이라고 .f ( ){ f
노이즈가 데이터를 손상시키지 않으면 Valiant [1][2]설정에서 학습을 정의할 수 있습니다.
정의:Oracle 및 다항식 에 수 있는 학습 A(\가 있는 경우 발리안트 설정에서 H를 하여 f f를 효율적으로 학습할 수 어떤 0<>에Ystyle p(\cdot,\cdot ,\cdot ,\cdot)}과 같이;ε ≤ 1{\displaystyle 0<, \varepsilon \leq 1}과 0개체, δ ≤ 1{\displaystyle 0<, \delta \leq 1}이 출력하는 신탁에 대한 호출을 번호 p을 경계로)(1ε, 1δ, n, 크기(f){\displaystyle p\left({\frac{1}{\varepsilon}},{\frac{1}{.\delta}},n, 조건 를 최소 - 로 만족시키는 Hh \ h \ \ {
다음에서는 데이터가 일부 [3][4][5]수정되었을 때 ff의 가능성을 정의합니다.
분류 소음
분류 노이즈[6] 모델에서는 노이즈 0≤< < 1 \ \eta < { \ {}{2가 도입된다.그러면 x의 라벨을 항상 반환하는 Oracle 는의 을 만을 호출할 수 있습니다 x { \eta ). Valiant 사례와같이 A {A의 목표는 e PX d(를 하도록 최적의 h {를 선택하는 것입니다P_{x\sim{{D\mathcal}}}(h())\neq f()))}. 적용의 경우 η{\displaystyle \eta}의 실질 가치에 접근하기 위해. 하지만 우리가}.[7]만약 그 소음률이 1/2{1/2\displaystyle}허용한다면, 그 학습 거의 불가능해 집니다는upperboundη B{\displaystyle \eta_{B}에 대한 접근이 있을 것 같은데 어렵다.에서모든 라벨이 대상 함수에 대한 정보를 전달하지 않기 때문에 계산 시간이 얼마든 상관없습니다.
정의:Oracle( , ) \ { } ( , \ ) 및 다항식 ( 에 액세스 할 수 있는 알고리즘A ( \ \{} )가 존재하는 경우 분류 노이즈 모델에서f \ { H )를 사용하여 효율적으로 학습할 수 합니다.", "\ , \ , \ , \ cdot , \ 。 2\ 0 \ \ { \ 0 \ \ q 0101 01 01 01 01 01 01 01 01 01 01 01 01 01 01 01 ,1 ,1 ,1 § 1 n e (){ ( { \ { { \} , { \ {} { \ , n ( ) \ right ,error(
통계 쿼리 학습
만약 Pf가능성에 대한 정보를 요청할}({\displaystyle P_{f())}}은 함수 f{\displaystyle f}정확합니다. 예){\displaystyle)}이라고 분류해 활발 중심 학습 문제의 학습이 한{\displaystyle{{A\mathcal}}산법 통계 QueryLearning[8]는 친절한 결정할 수 있습니다.레 내에서 정확한 답변을 제시합니다.공식적으로 학습 A가 을 호출할 때마다 다음과 같은 피드백 f로 수신합니다.f () - α (x ) ( x) +α { \x)}\x)}+\alpha}.
정의:Oracleα 및 pials에 수 학습 A {가 있는 경우통계 쿼리 학습 에서 Hdisplaystyle {를 하여 f f를 효율적으로 학습할 수 .", " , " p ( \ , \ , \ 、( ", "){ ( \ , \ , \ cdot)}、 ( " , " ) \ r ( \ , \ cdot , \ )
- ( ,) { { { } ( , alpha ) }、 p f (x} 、 (、 、 e ( )\ \ left ( { \ { } { \ } }}、 n \ size ) 。
- 는r( z ( r n,로 둘러싸여 .
- {은는) p( , ()\ \ left ( { \ { \ flac } } by bounded bounded 、 r (<\ } that r r r r the the to to to to to to to to to to to to to to to to to to to to to to to to to to to to to to to to to toto to {\ to to to to to {\ {\ to to to to to to to to to to {\ {\ {\
학습 에는 신뢰 파라미터 가 표시되지 않습니다.는 의 주요 목적이 대표적이지 않은 샘플로 인한 학습 알고리즘의 실패 가능성을 작게 하는 것이기 때문입니다.(x , {} ( , \ ) 는 항상 기준 Q () - P()+ { Q _ { ( x )}-\ f ( ){ f ( x )\le Q f } ( r )
통계 쿼리 모델은 PAC 모델보다 완전히 약합니다.SQ 학습이 효율적인 클래스는 분류 노이즈가 존재하는 경우 PAC 학습이 효율적이지만 패리티 등 효율적으로 PAC 학습할 [8]수 있는 문제가 있습니다.
악의적인 분류
악의적인 분류[9] 모델에서 상대는 학습 알고리즘을 저지하기 위해 오류를 생성합니다.이 설정은 제한된 시간 동안 전송 장치가 반복적으로 오작동할 때 발생할 수 있는 오류 버스트 상황을 설명합니다.형식적으로 A는 을 호출합니다. Oracle(β)은 분포 에서 올바르게 라벨이 지정된 x를 - β로 반환합니다. 1- 와 관련되지 않은 분포에서 도출된 예를 β와 함께 반환합니다.또, 악의적으로 선택된이 예는 f{ 를 있는 적에 의해 전략적으로 선택될 수 있습니다. , \ 또는 학습 알고리즘의 현재 진행 상황.
정의:;{\frac{1}{2}}}0≤β<12{\displaystyle 0\leq \beta<>{\frac{1}{2}}에}한번 뛰어 β B<12{\displaystyle \beta_{B}<을 감안하여, 우리는 만약 a가 존재한다고 f{\displaystyle f}효율적으로 그 악의 있는 분류 모델}}, H{\displaystyle{{H\mathcal}를 사용하여 익힐 수 있는 있다고 말한다알 학습Gorithm{\displaystyle{{A\mathcal}}}이 접근하는 오라클(x, β){\displaystyle{\text{오라클}}(x,\beta)}과 다항식 p(⋅, ⋅, ⋅, ⋅, ⋅){\displaystyle p(\cdot,\cdot,\cdot ,\cdot ,\cdot)}가에 대한 0<>ε ≤ 1{\displaystyle 0<, \varepsilon \leq 1}, 0<>δ ≤ 1{\disp.laystyle 0<, \delta \leq 1}그것을 출력하는 신탁에 대한 호출을 번호 p을 경계로)(11/2− β B, 1ε, 1δ, n, s나는 z e(f){\displaystyle p\left({\frac{1}{1/2-\beta_{B}}},{\frac{1}{\varepsilon}},{\frac{1}{\delta}},n,size(f)\right)}, 함수 h∈ H{\displaystyle h\in{{H\mathcal}}}를.st적어도의로 r ( h )는error ( 입니다.
입력 오류: 불균일한 랜덤 속성 노이즈
그 불균일 무작위 특성 noise[10][11]모델에는 알고리즘 부울 함수, 악성 신탁 오라클(x, ν){\displaystyle{\text{오라클}}(x,\nu)}를 배우는 것은 나는 예 x-th 비트)(x1x2,…,)n){\displaystyle x=(x_{1},x_{2},\ldots ,x_{n})}independe{\displaystyle 나는}각 동전을 던질 수 있다.ntly 재치h 확률: ( \ \ { i } \nu。
이러한 유형의 오류는 알고리즘을 돌이킬 수 없을 정도로 방해할 수 있습니다.실제로 다음과 같은 정리가 적용됩니다.
불균일한 랜덤 속성 노이즈 설정에서는 A(\는 r( <\(h varepsilon}<\의 를 출력할 수 있습니다.
「 」를 참조해 주세요.
레퍼런스
- ^ L. G. 발리안트(1985년 8월)연결의 학습 분리IJCAI (560-566페이지)에서
- ^ 발리안트, 레슬리 G "배울 수 있는 자의 이론"ACM 27.11(1984) 통신: 1134~1142.
- ^ Laird, P.D.(1988)좋은 데이터와 나쁜 데이터를 통해 학습합니다.클루어 학술 출판사.
- ^ 켄스, 마이클"통계 쿼리에서 효율적인 소음 허용 학습." ACM 45.6(1998년) 저널: 983–1006.
- ^ 브렁크, 클리포드 A., 마이클 J. 파자니."소음 허용 관계 개념 학습 알고리즘 조사"1991년 제8회 기계학습 국제 워크숍 진행.
- ^ 켄스, M. J., & 바지라니, U. V. (1994년)컴퓨터 학습 이론 소개, 5장. MIT 프레스.
- ^ 앵글루인, D., & Laird, P. (1988)시끄러운 예로부터 배우다.기계학습, 2(4), 343–370.
- ^ a b 켄스, M. (1998년)[www.cis.upenn.edu/~mkearns/marke/marke-journal.pdf 통계 쿼리를 통한 효율적인 소음 방지 학습]ACM 저널, 45(6), 983~1006.
- ^ Kearns, M., & Li, M. (1993)[ www.cis.upenn.edu/ ~ mkearns / mkearns / phdf ]악의 에러가 존재하는 경우의 학습]SIAM Journal on Computing, 22(4), 807-837.
- ^ 골드만, S. A., & Robert, H. (1991)슬론, 무작위 속성 잡음이 어려워기술 보고서 WUCS 91 29, 워싱턴 대학교 컴퓨터 과학부.
- ^ 슬론, R. H. (1989)컴퓨터 학습 이론: 새로운 모델과 알고리즘(Massachusetts Institute of Technology, 박사 학위 논문).