하이퍼베이스 기능 네트워크

Hyper basis function network

머신러닝, 하이퍼베이스 기능 네트워크 또는 하이퍼BF 네트워크는 RBF(Radial Basis Function) 네트워크 개념의 일반화이며, 여기서 유클리드 거리 측정 대신 마할라노비스와 같은 거리가 사용됩니다.하이퍼 베이시스 함수 네트워크는 Poggio와 Girosi에 의해 1990년 논문 "Networks for Abstimation and Learning"[1][2]에서 처음 도입되었습니다.

네트워크 아키텍처

표준 하이퍼BF 네트워크 구조는 실제 입력 n \ x \ \{ { }, 액티베이션 함수의 숨겨진 레이어 및 선형 출력 레이어로 구성됩니다.네트워크의 출력은 입력 벡터의 스칼라 입니다. : R R \phi :\는 다음과 같습니다.

서 N N 층에 있는 다수의 뉴런이고, j(\ _}) 및 j(\ j의 중심 및 무게입니다.하이퍼에서 활성화 함수 j ( - j) { _ {- \_ { )BF 네트워크는 다음 형식을 취합니다.

서 Rj(\j})는 양의 d ×(\ d\ d 매트릭스입니다.응용[3] 프로그램에 따라 다음 유형의 j {(가) 고려됩니다.

  • j 2 d × \ R _ { j } =1} { 2 \^ { 2} } \ { } _ \ d} 。> { \ > } 。이 경우는, 통상의 RBF 네트워크에 대응합니다.
  • j 2 j d× \ R _ { j } =1} \ style _ { }^{2 } \ { { \ d서 >{ \ }이 경우 기본 함수는 반지름 대칭이지만 다른 너비로 스케일링됩니다.
  • Rj)d이σ j나는입니다. 나는 g(12σ j12..., 12σ jz2)나는 d{나는}_{d\times 해야}{\displaystyle R_{j}({\frac{1}{2\sigma_{j1}^{2}}},...,{\frac{1}{2\sigma_{jz}^{2}}}\right)\mathbb},× 해야;0{\displaystyle \sigma_{ji}>0}. 모든 뉴런들은 varyin과 타원 모양을 가지고 있다.g크기.
  • 양의 유한 행렬이지만 대각 행렬은 아닙니다.

트레이닝

하이퍼 트레이닝BF 네트워크는 뉴런 j{\ j {\ _의 형태와 의 추정을 포함한다. Poggio와 Girosi(1990)는 움직이는 중심과 적응 가능한 뉴런 형태를 가진 훈련 방법을 설명한다.이 방법의 개요는 다음과 같습니다.

H[ ] N ( i - (x i ){ H [ \ ^ { * } = \ _ { i=^ ( y { i} - \ ^ { * } } ( x ) ) 。다음 조건이 최적의 조건에서 충족되어야 합니다.

j { { {^ } { \ phi ^ * } , H\ ^ * 、 μj = \ { \ ( \ ^ * } } = 0 ,

서 R j W {\ W 경사 강하법에서H _ 을 안정적인 으로 찾을 수 있습니다.

j - H ( ) \ ( { { } = - \ { \ ^ { * )} 、 j - H () style ( { } )

는 컨버전스 속도를 나타냅니다.

전체적으로 하이퍼 트레이닝BF 네트워크는 계산이 어려운 경우가 있습니다.또한 Hyper의 높은 자유도는BF는 과적합과 일반화를 초래합니다.단, 하이퍼BF 네트워크는 소수의 뉴런만으로도 복잡한 [2]기능을 학습하기에 충분하다는 중요한 이점을 가지고 있다.

레퍼런스

  1. ^ T. 포지오와 F.지로시(1990)."개산 및 학습용 네트워크"IEEE Vol. 78, No. 9:1481-1497.
  2. ^ a b R.N. Mahdi, E.C. Rouchka(2011)."하이퍼 저감BF 네트워크: 명시적인 복잡성 감소스케일링된 Rprop 기반 훈련에 의한 정규화".IEEE 신경망트랜잭션 2:673–686.
  3. ^ F. Schwenker, H.A. Kestler 및 G. Palm(2001)."방사형 기저 기능 네트워크의 3가지 학습 단계" 신경 네트워크. 14:439-458.