코부스팅

CoBoosting

코부스트는 1999년 콜린스와 싱어가 제안한 준감독 훈련 알고리즘이다.알고리즘의 원래 적용은 매우 약한 학습자를 이용한 명명된 엔티티 분류 작업이었다.[1]특징에 중복성이 존재하는 경우 준감독 학습 수행에 사용할 수 있다.

공동훈련부양이 합쳐진 것으로 볼 수도 있다.각 예제는 두 개의 뷰(형상 집합의 하위 섹션)에서 사용할 수 있으며, 부스팅은 이전 반복의 대체 뷰에서 생성된 예측 라벨을 사용하여 각 뷰와 교대로 반복적으로 적용된다.CoBoosting은 PAC 학습의식에서 유효한 부스팅 알고리즘이 아니다.

동기

CoBoosting은 콜린스와 싱어가 반 감독 방식으로 분류자를 훈련시키기 위한 기능의 중복성을 이용하려는 이전의 시도를 개선하려는 시도였다.블럼과 미첼의 세미콜라 작품인 코트레이닝은 의사결정 목록에서 반복적으로 규칙을 유도함으로써 소수의 씨앗 예시를 주어 분류자를 학습하는 데 강력한 프레임워크임을 보여주었다.CoBoosting to CoTraining의 장점은 CoTraining 패턴을 일반화하여 어떤 분류기와도 함께 사용할 수 있다는 점이다.CoBoosting은 AdaBoost로부터 개념을 차용하여 이 업적을 달성한다.

CoTrain과 CoBoost에서 교육 및 테스트 예제 세트는 두 가지 특성을 따라야 한다.첫 번째는 예시의 형상공간이 두 형상공간(또는 보기)으로 분리되어 각 뷰가 분류를 위해 충분히 표현될 수 있다는 점이다.Formally, there exist two functions and such that for all examples , 이상적인 반면, 이 제약조건은 사실 소음과 다른 요인들로 인해 너무 강하며, 그 대신 두 알고리즘 모두 두 기능 사이의 합치를 최대화하려고 한다.두 번째 속성은 두 가지 관점이 높은 상관관계를 가져서는 안 된다는 것이다.

알고리즘.

입력:{( , 2 ) = \{{1}{(x_{{ = {=1}^{m

초기화: , j: 0 (x )= 0 \ .

= , .., t= = ,

유사 레이블 설정:

Set virtual distribution:

여기서 = i= e- g - j, i)

된 교육 오류를 최소화하는 약한 가설 을(를) 찾으십시오.

확장된 교육 오류를 최소화하는 에 대한 값을 선택하십시오.

현재 강력한 비임계 분류자 값 업데이트:

최종 강력한 분류기 출력은

AdaBoost 설정

CoBoosting은 AdaBoost 알고리즘을 기반으로 하며, 이것은 AdaBoost가 다른 많은 학습 알고리즘과 함께 사용될 수 있기 때문에 CoBoosting에게 일반화 능력을 부여한다.이 빌드업은 복수 클래스 분류에 적응할 수 있지만 2 클래스 분류 작업을 가정한다.AdaBoost 프레임워크에서는 훈련 세트의 예에 대한 분포뿐만 아니라 약한 분류자가 직렬로 생성된다.각각의 약한 분류기에는 무게가 주어지고 최종적인 강한 분류자는 할당된 무게에 의해 가중되는 약한 분류자의 합계의 기호로 정의된다.(표기법은 AdaBoost Wikipedia 페이지 참조)AdaBoost 프레임워크에서 Schapire와 Singer는 훈련 오류가 다음과 같은 방정식에 의해 제한된다는 것을 보여주었다.

여기서 는 분포 t+ 의 정규화 요인이다 () 에 대한 방정식의 에 대한 해결 방법:

여기서 는 현재 약한 가설에서 선택된 형상이다.현재 가설이 올바른 레이블 또는 잘못된 레이블을 선택한 분포의 합을 설명하는 3개의 방정식이 정의된다.분류자가 제공된 라벨이 0인 예에서 라벨을 선택하지 않을 수 있다는 점에 유의하십시오.두 개의 라벨은 -1 또는 1로 선택된다.

샤피르와 싱어는 다음과 같이 t 를 선택하여 Z {\을 최소화할 수 있고, 따라서 훈련 오류도 최소화할 수 있다는 것을 보여주었다.

정확하게 분류된 예제 수 대 예에 비해 분포에 의해 가중된 잘못 분류된 예제 수를 바탕으로 현재 가설의 분류자에 대한 신뢰 값 제공. 방정식은 W- 가 너무 작은 경우를 보상하기 위해 평활할 수 있다. 방정식에서Z t {\ Z_를 도출하면 다음과 같은 결과를 얻을 수 있다.

따라서 훈련 오류는 이전 방정식을 최소화하는 반복마다 약한 가설을 선택하여 최소화한다.

두 가지 견해를 가진 에이다부스트

CoBoosting은 라벨이 붙은 훈련 세트( 의 예와 라벨이 없는 훈련 세트( 1. .n 가 있는 경우 이 프레임워크를 확장하며, i=( , , 의 형태로 특징의 중복성 조건을 충족한다알고리즘은 라벨이 부착된 훈련에 동의하는 에이다부스트와 같은 방식으로 두 분류자를 훈련시키고 라벨이 부착되지 않은 훈련 세트에 있는 두 분류자 사이의 합의를 최대화한다.최종 분류자는 두 개의 강력한 분류자를 합한 표시다.CoBoost에 대한 경계 훈련 오류는 다음과 같이 확장되며, 서 Z t 의 확장이다

여기서 j 보기(j = 1 또는 2)에 대한 신뢰 값에 의한 가설 가중치의 합이다. g 의 기호인데 CoBoost의 각 반복에서 두 분류자는 반복적으로 업데이트된다. - 1 - 1 보기에 대한 강력한 분류기 출력인 경우, jth 에 대한 유사 라벨을 다음과 같이 설정할 수 있다.

여기서 - 은(는) 현재 업데이트 중인 보기의 다른 보기를 선택한다. 은(는 Z = C 1 + C O 2 {\ Z_{{{}}}}와 같이 둘로 분할된다. 어디

반복 에서 각 보기 에 대한 예제를 통한 분포는 다음과 같이 정의된다.

Z 을(를) 로 다시 쓸 수 있다.

에이다부스트의 방정식과 동일한 것이다.Thus the same process can be used to update the values of as in AdaBoost using and . By alternating this, the minimization of and 이 패션에서 는 욕심 많은 패션으로 최소화된다.

참조

각주

  1. ^ 마이클 콜린스와 요람 싱어, 명명되지 않은 개체 분류 모델.1999년도 자연어 처리 및 매우 큰 기업에서의 경험적 방법에 관한 공동 SIGDAT 회의의 진행, 페이지 100-110, 1999.