자기조직화 맵의 증가

Growing self-organizing map

Growing Self-Organizing Map(GSOM; 자기조직화 맵)은 자기조직화 맵(SOM)의 증가 변종입니다.GSOM은 SOM에서 적절한 지도 크기를 식별하는 문제를 해결하기 위해 개발되었습니다.최소 노드 수(일반적으로 4개)로 시작하여 휴리스틱을 기반으로 경계에서 새로운 노드를 성장시킵니다.데이터 분석가는 확산 계수(SF)라는 값을 사용하여 GSOM의 성장을 제어할 수 있습니다.

GSOM의 모든 시작 노드는 경계 노드입니다. 즉, 각 노드는 처음에 자신의 방향으로 자유롭게 성장할 수 있습니다. (그림 1) 새로운 노드는 경계 노드에서 성장합니다.노드를 성장시키기 위해 선택하면 모든 사용 가능한 인접 위치가 새로운 노드가 됩니다.그림은 직사각형 GSOM에 대해 가능한 세 가지 노드 증가 옵션을 보여 줍니다.

GSOM의 노드 증가 옵션: (a) 새로운 노드 1개, (b) 새로운 노드 2개, (c) 새로운 노드 3개.

알고리즘

GSOM 프로세스는 다음과 같습니다.

  1. 초기화 단계:
    1. 시작 노드(보통 4개)의 무게 벡터를 0과 1 사이의 난수로 초기화합니다.
    2. -D × (F) \ - D \\ ln ( SF 에 따라 D의 데이터 세트 ( \ D )의 증가 임계값 ( = - D \ times\ ln ( SF )
  2. 성장 단계:
    1. 네트워크에 입력을 제시합니다.
    2. 유클리드 거리(SOM과 유사)를 사용하여 현재 피쳐 맵(우승자)에 매핑된 입력 벡터에 가장 가까운 가중치 벡터를 결정합니다. 순서는 다음과 같이 요약할 수 있습니다 -w- - wN \ \ v - w_ {\\ ,q {q}는 노드의 위치 벡터이며 N{\ 자연수 집합입니다.
    3. 무게 벡터 적응은 우승자의 주변과 우승자 자체에만 적용됩니다.이웃은 우승자 주변의 뉴런 집합이지만, GSOM에서 체중 적응을 위해 선택된 시작 이웃은 SOM(국소 체중 적응)에 비해 작다.적응의 양(학습 속도)도 반복에 따라 기하급수적으로 감소합니다.인근 지역에서도 멀리 있는 역기보다 승자에 가까운 역기가 더 적합하다. 적응은 k + j () + ()× ( k - ) j +1 \ style }() { text}로 설명할 수 있습니다.긍정적인 매개 변수의&{\text{만약}}}\mathrm{N}_{k+1}\end{경우}j\in}이 학습율 LR(k){LR(k)\displaystyle}, k∈ N{\displaystylek\in \mathbb{N}}시퀀스 0에 대한 k의 → ∞{\displaystyle k\to\infty}로 집중. wj(k){\displaystyle w_{j}(k)}, w j(k+1){\di.spla)는 적응 전후의 j j 무게 이며 + 1(\( ){ 반복에서 이긴 뉴런의 근방이다.GSOM의 L ( LR( 감소치는 시각 k의 맵에 존재하는 노드의 수에 따라 달라집니다.
    4. 승자의 오차 값을 늘립니다(오류 값은 입력 벡터와 가중치 벡터의 차이입니다).
    5. i> T \ _ { } >GTi의 총 오류({ 는 성장 임계값입니다.i가 경계 노드인 경우 노드를 확장합니다.i가 비경계 노드인 네이버에 가중치를 분산합니다.
    6. 네이버 노드의 무게와 일치하도록 새로운 노드의 무게 벡터를 초기화합니다.
    7. 속도( \ LR)를 시작 값으로 초기화합니다.
    8. 모든 입력이 제시되고 노드의 증가가 최소 수준으로 감소할 때까지 스텝2 ~ 7을 반복합니다.
  3. 스무딩 단계
    1. 학습률을 낮추고 소규모 시작 지역을 수정합니다.
    2. 성장 국면에서와 같은 방법으로 승자와 이웃의 체중을 조정하여 승자를 찾아냅니다.
50개(첫 번째 열) 및 100개(두 번째 열) 노드가 있는 1D SOM(위 행) 및 GSOM(아래 행)에 의한 노이즈가 있는 Spiral(나선형)의 근사치입니다.설명되지 않은 분산 비율은 a) 4.68%(SOM, 50 노드), b) 1.69%(SOM, 100 노드), c) 4.20%(GSOM, 50 노드), d) 2.32%(GSOM, 100 노드)입니다.SOM의 초기 근사치는 데이터 세트와 동일한 분산을 가진 첫 번째 주요 구성요소의 세그먼트 내 노드의 등분포였다.GSOM의 초기 근사치는 [1]평균점이었다.

적용들

GSOM은 데이터 마이닝의 많은 전처리 작업, 비선형 차원성 감소, 주요 곡선 및 다지관 근사, 클러스터링분류에 사용할 수 있습니다.SOM보다 데이터 형상을 더 잘 표현할 수 있는 경우가 많습니다(왼쪽의 주요 곡선에 대한 고전적 벤치마크 참조).

레퍼런스

  1. ^ 이 그림은 무료 소프트웨어 E.M. Mirkes, Principle Component AnalysisSelf-Organizing Maps: 애플릿을 사용하여 작성되었습니다.2011년 레스터 대학교

참고 문헌

  • Liu, Y.; Weisberg, R.H.; He, R. (2006). "Sea surface temperature patterns on the West Florida Shelf using growing hierarchical self-organizing maps". Journal of Atmospheric and Oceanic Technology. 23 (2): 325–338. Bibcode:2006JAtOT..23..325L. doi:10.1175/JTECH1848.1. hdl:1912/4186.
  • Hsu, A.; Tang, S.; Halgamuge, S. K. (2003). "An unsupervised hierarchical dynamic self-organizing approach to cancer class discovery and marker gene identification in microarray data". Bioinformatics. 19 (16): 2131–2140. doi:10.1093/bioinformatics/btg296. PMID 14594719.
  • Alahakoon, D., Halgamuge, S. K. and Sirinivasan, B. (2000) 지식 발견, 뉴럴 네트워크의 IEEE 트랜잭션, 지식 발견 및 데이터 마이닝에 관한 특별호, 11, 페이지 601–614를 위한 제어된 성장을 수반하는 동적 자기 조직 지도.
  • 알라하쿤, D., 할가무지, S. K. 및 시리니바산, B. (1998) 제5회 신경정보처리 국제회의(ICONIP 98), 일본 기타큐슈(北九州), 기타큐슈(北九州) 809페이지에서 최적의 클러스터 표현을 위한 구조 적응 특징도
  • Alahakoon, D., Halgamuge, S. K. 및 Sirinivasan, B. (1998) 미국 샌디에이고, 시스템, 인간 및 사이버네틱스에 관한 IEEE 국제 회의의 데이터 마이닝에 대한 자체 성장 클러스터 개발 접근법, pp 2901-2906
  • Alahakoon, D.와 Halgamuge, S. K.(1998) 소프트 컴퓨팅 및 정보/지능 시스템에 관한 제5회 국제회의의 진행에서 감시 및 비감독 자기진화 신경망을 이용한 지식 발견, 페이지 907–910

「 」를 참조해 주세요.