LPBoost(Linear Programming Boost)는 부스팅 계열의 분류자로부터 감독을 받는 분류자 입니다.LPBoost는 서로 다른 등급의 훈련 샘플 간의 마진을 최대화하므로 또한 마진 최대화 감독 분류 알고리즘의 등급에 속한다.분류함수를 고려한다.

공간 {\의 표본을 각각 1과 -1로 표시된 두 가지 클래스 중 하나로
분류한다.LPBoost는 이러한 분류 함수를 학습하기 위한 알고리즘으로, 알려진 클래스 라벨이 있는 일련의 훈련 예시를 제공한다.LPBoost는 머신러닝 기법이며, 특히 구조화된 도메인에서 공동 분류와 특징 선택의 적용에 적합하다.
LPBoost 개요
모든 부스팅 분류기에서와 마찬가지로 최종 분류 함수는 형식이다.

여기서 는 약한 분류자 : →{- , 에 대한 음이 아닌 가중치임
.
각각의 약한 분류자 개별적인 약한 분류자 h j는 무작위보다 약간 나을 수도
있지만, 결과적으로 많은 약한 분류자의 선형 결합은 매우 좋은 성과를 낼 수 있다.
LPBoost는 빈약한 분류자 집합에서 하여
f 을(를) 구성한다.반복적으로, 약한 분류자로 간주되는 분류자 집합에 추가할 약한 분류자 하나를 선택하고, 추가하며, 현재 약한 분류자 집합에 대한
모든 가중치 }}}을 조정한다.추가할 약한 분류자가 남아 있지 않을 때까지 이런 일이 반복된다.
모든 분류자 가중치가 각 반복에서 조정되는 속성을 완전 보정 속성이라고 한다.AdaBoost와 같은 초기 부양 방법은 이 속성을 가지고 있지 않고 더 느리게 수렴한다.
선형 프로그램
보다 일반적으로 = (; ) ) 은(는) 아마도 무한히 약한 분류자 집합이며
, 가설이라고도 한다.LPBoost가 해결하는 문제를 적는 한 가지 방법은 변수가 무한히 많은 선형 프로그램이다.
이 아닌 체중 벡터 α {\
에 걸쳐 최적화하는 LPBoost의 원시 선형 프로그램, 이완 변수의 비음극
벡터 {\ 은 다음과
같다.

느슨한 변수 0의 영향을 주의하십시오
이들의 단일 표준은 항상 일정한 요인
에 의해 객관적 함수에서 불이익을 받으며, 충분히 작을 경우 항상 초기 실행 가능한 선형 프로그램으로 이어진다.
Here we adopted the notation of a parameter space
, such that for a choice
the weak classifier
is uniquely defined.
위의 선형 프로그램이 초기 출판물에 부스팅 방법에 대해 처음 기록되었을 때, 그것은 많은 변수 때문에 난치불능으로 무시되었다
나중에야 그러한 선형 프로그램은 실제로 g열의 고전적인 기법을 사용하여 효율적으로 해결될 수 있다는 것이 밝혀졌다.내조
LPBoost용 컬럼 생성
선형 프로그램에서 열은 원시 변수에 해당한다.컬럼 생성은 대규모 선형 프로그램을 해결하는 기법이다.일반적으로 제한된 문제에서 작동하며 변수의 부분 집합만 처리한다.원시 변수를 반복적으로 그리고 필요에 따라 생성함으로써 결국 모든 변수에 대한 원래 제한되지 않은 문제가 복구된다.문제를 발생시킬 열을 교묘하게 선택함으로써, 획득한 솔루션이 원래의 전체 문제에 최적이 되도록 보장하면서도, 작은 부분의 열만 생성하면 되는 문제를 해결할 수 있다.
LPBoost 이중 문제
원시 선형 프로그램의 열은 이중 선형 프로그램의 행에 해당한다.LPBoost의 동등한 이중 선형 프로그램은 다음과 같은 선형 프로그램이다.

선형 프로그램의 경우 원시 문제와 이중 문제의 최적 값은 동일하다.위의 원시 문제와 이중 문제에 대해 최적 값은 음의 '연성 여유'와 동일하다.소프트 마진은 마이너스 훈련 사례에서 양수를 분리하는 마진 크기에서 마진 위반 표본에 대한 벌칙을 전달하는 양의 느슨한 변수를 뺀 값이다.따라서 모든 표본이 분류 함수에 의해 선형적으로 분리되는 것은 아니지만 연한 여백은 양수일 수 있다.후자는 '하드 마진' 또는 '실현 마진'이라고 불린다.
수렴기준
이중 문제에서 충족되는 제약 조건의 일부를 고려하십시오.유한 부분 집합에 대해 우리는 선형 프로그램을 해결할 수 있고 따라서 모든 제약조건을 충족시킬 수 있다.만약 우리가 이중 문제에 추가하지 않은 모든 제약조건들 중에서 어떤 제약조건도 위반되지 않는다는 것을 증명할 수 있다면, 우리의 제한적인 문제를 해결하는 것이 원래의 문제를 해결하는 것과 같다는 것을 증명했을 것이다.좀 더 공식적으로 을(를) 모든 제한된 인스턴스에 대한 최적의 목표 함수 값이 되도록
한다.그런 다음, 원래의 문제 공간에서 '가장 위반된 제약조건'에 대한 검색 문제를 공식화할 수 있다. 즉, ∈ in 에서 \Oomega }을(를) 찾을
수 있다.

즉, 이중 구속조건의 좌측을 최대화하는
단일 결정 그루터기 ) 에 대한
공간 h(\cdot;\를 검색한다.어떤 선택으로든 의사결정의 그루밍에 의해 제약조건을 위반할 수 없는 경우, 해당 제약조건 중 어느 것도 본래의 문제에서 활동할 수 없으며 제한적인 문제는 동등하다.
벌칙 D D
벌칙 상수 의 양의 값은 모델 선택 기법을 사용하여 찾아야 한다
.그러나 = 1 D을
를 선택하면 여기서 은
(는) 교육 샘플의 < < ><\ 0 >은 다음과 같은 속성이
있다
- 은(는) 교육 오류의 일부에 대한 상한으로
, k 이
(가) 잘못된 분류된 교육 샘플 수를 나타내는 경우 ≤ ≤ 
- 은(는) 훈련 샘플의 외부 또는 여백에 있는 분수에 대한 하한이다
.
알고리즘.
- 입력:
- 세트 X ={ , x}{x, {x
∈ - 교육 라벨 ={ Y , y Y
{- , - 수렴 임계값
- 출력:
- 분류함수 : →{- ,} \{-
- 초기화
- 무게, 균일한 n =
- 0 {\
- 가설 카운트 화살표
- 반복하다

- 만약 = (x ) + { { { {\}}}{\hat

- 부숴뜨리다


- ( ,)←{\{\}},\ LPBoost 듀얼 용액

- LPBoost 이중 문제 해결의 라그랑어
승수

수렴 임계값을 = 으)로 설정하면 위의
선형 프로그램의 글로벌 최적 솔루션으로 얻을 수 있다는 점에 유의하십시오.실제로 은(는) 좋은 솔루션을 빨리 얻기 위해 작은 양의 값으로 설정된다
.
실현마진
교육 샘플을 분리하는 실제 여유는 실현된 여유라고 하며 다음과 같이 정의된다.

실현된 마진은 대개 첫 번째 반복에서 음수가 될 수 있다.일반적으로 그렇듯이, 단일 표본을 추출할 수 있는 가설 공간의 경우, 실현된 마진은 결국 어떤 양의 값으로 수렴될 것이다.
수렴보증
위의 알고리즘이 수렴하는 것으로 입증되지만, 에이다부스트나 토탈부스트와 같은 다른 부스팅 공식과는 대조적으로, LPBoost에는 알려진 수렴 한계가 없다.그러나 실제로 LPBoost는 다른 제형보다 빠르게, 종종 더 빠르게 수렴하는 것으로 알려져 있다.
기본 학습자
LPBoost는 앙상블 학습 방법이기 때문에 기본 학습자의 선택을 좌우하지 않는 가설
데미리즈 외 연구진은 가벼운 가정 하에서 어떤 기본 학습자도 사용할 수 있다는 것을 보여주었다.기초 학습자가 특히 단순하면 흔히 의사결정 그루터기라고 한다.
문학에서 부스팅과 함께 일반적으로 사용되는 기본 학습자의 수는 많다.예를 들어, ⊆ {\
기본 학습자는 선형 소프트 마진 지원 벡터 시스템이 될 수 있다.아니면 훨씬 더 간단한 형태의 그루터기.

위의 결정 스텀프는 입력 공간의 단일
p 만 보고 일정한 임계값 을 사용하여 샘플의 각 열을 단순히 임계값으로 지정한다
그런 다음 또는
음수 클래스에 대해 Ω \omega 에 따라 어느 방향으로든 결정할 수 있다
교육용 샘플에 대한 가중치가 주어지면, 위의 양식의 최적 의사결정 그루터기를 구성하는 것은 게인 기능을 최적화하기 위해
모든 샘플 열을 따라 검색하고
및
}을(를) 결정하는 것이다.
참조