비선형 접합구배법

Nonlinear conjugate gradient method

수치최적화에서 비선형 결합구배법비선형 최적화대한 결합구배법을 일반화한다.2차 함수 ( ) 의 경우

그라데이션이 0일 때 f 을(를) 얻음:

= ( - b)= .

선형 결합 그라데이션은 선형 방정식 A = b ^{에 대한 해결책을 찾는 반면 비선형 결합 그라데이션 방법은 일반적으로 구배 x style }만을 사용하여 비선형 함수의 국소 최소값을 찾는 데 사용된다.함수가 최소값 근처에 근사적으로 2차적일 때 작동하는데, 이는 함수가 최소 두 배 이상 차이가 나고 두 번째 파생상품이 비음속적인 경우다.

최소화할 {\ 변수의 ) 함수를 지정하면 그 그라데이션 는 최대 증가 방향을 나타낸다.단순히 반대 방향(스티븐 강하)에서 출발한다.

길이 \displaystyle \ displaystyle f}이(가 최소 f {\에 도달할 때까지 이 방향으로 라인 검색을 수행하십시오

( 0+ ) \alpha

가장 가파른 방향 x 에서 이 첫 번째 반복 후에 다음 단계는 후속 결합 방향 n 을 따라 이동하는 하나의 반복을 구성한다 여기서 = x 0}}}}}}\:

  1. 가장 가파른 방향 계산: x = - f( )
  2. 아래 공식 중 하나에 따라 을 계산하십시오.
  3. 결합 방향 업데이트: = x + - 1
  4. 라인 검색을 수행하십시오. = + n) \\ \arg .
  5. 위치 업데이트: n+ 1= x + s

순수 2차 함수의 경우 N 반복(반올림 오류 제외) 내에서 최소값에 도달하지만, 비 2차 함수의 경우 진행이 느리게 된다.후속 검색 방향은 최소 N번 반복마다 또는 진행이 중단되는 경우 더 빨리 검색 방향을 가장 가파른 하강 방향으로 재설정해야 하는 결합력을 상실한다.그러나 모든 반복을 재설정하면 방법이 가장 가파른 내리막길로 바뀐다.알고리즘은 방향 재설정(즉, 가장 가파른 하강 방향) 후 진척이 없을 때 또는 일부 허용오차 기준에 도달할 때 결정되는 최소값을 찾으면 정지한다.

선형 근사치 내에서 매개변수 } 및 }은 선형 결합 그라데이션 방법과 동일하지만 선 검색을 통해 얻었다.공차 구배법은 가장 가파른 내리막길이 속도가 느려지고 십자형 패턴을 따르는 좁은(조건이 없는) 계곡을 따라갈 수 있다.

에 대해 가장 잘 알려진 공식 4개는 개발자의 이름을 따서 다음과 같이 명명되었다.

  • 플레처-리브스:[1]
  • 폴락-리비에르:[2]
  • 헤스테네스-스티펠:[3]
  • 다이위안:[4]

이러한 공식은 2차 함수와 동일하지만 비선형 최적화의 경우 선호 공식은 경험적 접근성 또는 취향의 문제다.= { , P 가) 일반적인 선택이며, 이는 자동으로 방향 재설정을 제공한다.[5]

뉴턴의 방법에 기초한 알고리즘은 잠재적으로 훨씬 더 빨리 수렴할 수 있다.여기서 단계 방향과 길이 모두 등식의 선형 시스템의 해법으로 구배에서 계산되며, 계수 행렬은 정확한 헤시안 행렬(뉴턴의 방법 적절한 경우) 또는 그 추정치(준 뉴턴 방법에서, 반복 중 구배에서 관찰된 변화가 Hess를 업데이트하는 데 사용된다.이안 추정치).고차원적인 문제의 경우, Hessian의 정확한 계산은 대개 엄청나게 비싸고, 그 저장장치도 문제가 될 수 있어 () 스타일 메모리가 필요하다(그러나 제한된 메모리 L-BFGS 준 뉴턴 방법 참조).

또한 최적 제어 이론을 사용하여 결합 그라데이션 방법을 도출할 수 있다.[6]이 가속 최적화 이론에서, 결합 그라데이션 방법은 비선형 최적 피드백 제어기로서 제외된다.

u= ( , ) :- ( ) - b dot{x

> 0 > 0 은 가변 피드백 이득이다.[6]

참고 항목

참조

  1. ^ Fletcher, R.; Reeves, C. M. (1964). "Function minimization by conjugate gradients". Comput. J. 7 (2): 149–154. doi:10.1093/comjnl/7.2.149.
  2. ^ Polak, E.; Ribière, G. (1969). "Note sur la convergence de méthodes de directions conjuguées". Rev. Française Informat Recherche Opérationelle. 3 (1): 35–43.
  3. ^ Hestenes, M. R.; Stiefel, E. (1952). "Methods of Conjugate Gradients for Solving Linear Systems". J. Research Nat. Bur. Standards. 49 (6): 409–436. doi:10.6028/jres.049.044.
  4. ^ Dai, Y.-H.; Yuan, Y. (1999). "A nonlinear conjugate gradient method with a strong global convergence property". SIAM J. Optim. 10 (1): 177–182. doi:10.1137/S1052623497318992.
  5. ^ Shewchuk, J. R. (August 1994). "An Introduction to the Conjugate Gradient Method Without the Agonizing Pain" (PDF).
  6. ^ a b Ross, I. M. (2019). "An Optimal Control Theory for Accelerated Optimization". arXiv:1902.09004.