평균 1의존성 추정치
Averaged one-dependence estimators평균 1의존성 추정기(AOD)는 확률론적 분류 학습 기법이다.인기 있는 네이비 베이즈 분류자의 속성 의존성 문제를 해결하기 위해 개발되었습니다.그것은 [1]종종 계산의 양이 약간 증가하는 대신 순진한 베이즈보다 훨씬 더 정확한 분류기를 개발한다.
AODE 분류자
AODE는 지정된 특징1 집합 xn, ... x, P(y1 x, ... x)가n 주어진 각 클래스 y의 확률을 추정하려고 합니다.그러기 위해서는 다음 공식을 사용합니다.
서 P ( ){hat { } )는 P(\ P ( \ 의 F ( F ( \ )는 샘플데이터에 인수가 표시되는 빈도, m은 사용자 지정 최소 빈도로서 외부 su에서 사용되는 용어를 사용합니다.마이크로메이션최근 관행에서는 m이 보통 1로 설정됩니다.
AODE 분류기 유도
우리는 P(y1 x, ... xn)를 추정하려고 한다.조건부 확률의 정의에 따라
의 1 i \ 1 \ i \ n, 、
x가 …라고1 가정하면x는n y와i x가 주어지면 다음과 같이 독립적입니다.
이 공식은 순진한 베이즈의 독립성 가정보다 약한(따라서 잠재적으로 덜 해로운) 위의 독립성 가정을 만드는 순진한 베이즈 분류자의 변형인 ODE(One Dependence Estimator)의 특별한 형식을 정의합니다.결과적으로, 각 ODE는 순진한 베이즈보다 덜 편향된 추정치를 생성해야 한다.그러나 기준 확률 추정치는 각각 한 변수가 아닌 두 변수에 의해 조정되기 때문에 더 적은 데이터(두 변수를 모두 충족하는 훈련 예제)로 구성되므로 분산이 더 클 수 있습니다.AODE는 이러한 모든 ODE의 추정치를 평균화함으로써 이러한 분산을 줄입니다.
AODE 분류기의 기능
네이비 베이즈와 마찬가지로 AODE는 모델 선택을 수행하지 않으며 조정 가능한 파라미터를 사용하지 않습니다.결과적으로 분산이 낮습니다.새로운 예제의 정보를 이용할 수 있게 되면 효율적으로 분류자를 갱신할 수 있는 증분 학습을 지원한다.이는 단순히 단일 클래스를 예측하는 것이 아니라 클래스 확률을 예측하기 때문에 사용자는 각 분류가 이루어질 수 있는 신뢰도를 결정할 수 있습니다.확률론적 모델은 일부 데이터가 누락된 상황을 직접 처리할 수 있다.
AODE는 훈련 에는 계산 복잡도 O n O이고 분류 에는 O n O이다 . 여기서 n은 특징 수, l은 훈련 예시의 수, k는 클래스 수이다.따라서 고차원 데이터에 적용할 수 없습니다.그러나 이 제한 내에서 훈련 사례의 수와 관련하여 선형적이기 때문에 다수의 훈련 사례를 효율적으로 처리할 수 있다.
실장
무료 Weka 머신 러닝 스위트에는 AODE 구현이 포함되어 있습니다.
「 」를 참조해 주세요.
레퍼런스
- ^ 웹, G.I., J. Boyon, Z.왕(2005년)."Not So Naigive Bayes: 단일 종속성 추정기를 집계하는 중"머신러닝, 58(1), 5~24.doi: 10.1007/s10994-005-4258-6