구조화된 서포트 벡터 머신

Structured support vector machine

구조화된 Support-Vector 머신은 Support-Vector Machine(SVM) 분류기를 일반화하는 기계 학습 알고리즘입니다.SVM 분류기는 바이너리 분류, 멀티 클래스 분류 및 회귀를 지원하는 반면, 구조화된 SVM은 일반적인 구조화된 출력 라벨에 대한 분류기의 훈련을 허용합니다.

예를 들어 샘플인스턴스는 자연어 문장이며 출력라벨은 주석이 달린 해석 트리입니다.분류기 훈련은 올바른 샘플과 출력 라벨 쌍의 쌍으로 구성됩니다.훈련 후 구조화된 SVM 모델을 통해 새로운 샘플인스턴스에 대응하는 출력 라벨을 예측할 수 있습니다.즉, 자연어 문장이 주어지면 분류자는 가장 가능성이 높은 해석 트리를 생성할 수 있습니다.

트레이닝

\ , ) ×Y ( \{ x { } , y { } ) \ \ { Y } \ times \{ ) 、 , , \ {\ 구조화된 SVM은 다음과 같은 정규화된 위험 함수를 최소화합니다.

함수는 아핀 함수 집합의 최대값이 볼록하므로 w에서 볼록합니다.함수 :Y × + {\ : {\{\ { _ 라벨 공간의 거리를 측정하고 를 만족하는 임의의 함수(필수는 아님)입니다. \tay)= y { 함수 :X × \ \ : {\ \ \는 벡터 추출의 일부 기능입니다.이 기능의 설계는 응용 프로그램에 따라 크게 달라집니다.

위의 정규화된 리스크 함수는 미분할 수 없기 때문에 종종 각 샘플에 하나의 슬랙 변수 n\ _ { 도입하여 2차 프로그램의 관점에서 재구성된다.표준 구조화된 SVM 기본 공식은 다음과 같습니다.

추론

테스트 시 샘플 X in {X 알려져 있으며, 예측 f: (\ fY Y(\displaystyle 에서 예측된 레이블에 매핑됩니다.을 통해 얻은 \style\ {w예측 기능은 다음과 같습니다.

따라서 레이블 공간의 최대화기가 예측 레이블입니다.이 극대기에 대한 해결은 소위 추론 문제이며 확률론적 모델에서 최대 a-후열(MAP) 예측을 하는 것과 유사하다.\ \ 함수의 구조에 따라서는 맥시마이저를 풀기가 어려울 수 있습니다.

분리

위의 2차 프로그램은 매우 크고 아마도 무한대의 선형 부등식 제약 조건을 포함한다.일반적으로 불평등의 수는 너무 커서 명시적으로 최적화될 수 없다.대신, 제한의 유한하고 작은 부분 집합만 사용되는 지연된 제약 조건 생성을 사용함으로써 문제가 해결됩니다.제약 조건의 하위 집합에 대해 최적화하면 실현 가능한 집합이 확대되고 목표에 하한을 제공하는 솔루션이 생성됩니다. 한 집합 부등식의 제약을 위반하는지 여부를 테스트하기 위해서는 분리 문제를 해결해야 한다.부등식이 샘플별로 되므로( x , n{\ 다음과 같은 문제를 해결해야 합니다.

최대화할 우측 목표는 상수- w ( , ) - n \ \ w } , \ ( \ { { } , } ) 및 변수 이상에 의존하는 항으로 구성됩니다.달성된 우측 목표가 0보다 작거나 같을 경우 이 샘플의 제약조건을 위반하지 않습니다.이 값이 0보다 클 경우 이 샘플과 관련하여 가장 위반이 심한 제약 조건을 식별한 것입니다.이 제약으로 인해 문제가 확대되어 해결되었습니다.그 과정은 위반된 불평등이 식별되지 않을 때까지 계속된다.

위의 문제에서 상수가 떨어지면 다음과 같은 문제가 해결됩니다.

이 문제는 추론 문제와 매우 유사해 보입니다.유일한 차이점은 용어 ( n , ( y {n 가 추가된 것입니다.대부분의 경우 라벨 공간에서 자연스럽게 분해되도록 선택됩니다.이 경우 })의 영향을 추론문제로 인코딩할 수 있으며, 가장 위반되는 제약조건에 대한 해결은 추론문제의 해결과 동등하다.

레퍼런스