하강 방향

Descent direction

In optimization, a descent direction is a vector that, in the sense below, moves us closer towards a local minimum of our objective function .

라인 검색과 같은 반복적인 방법으로 을(를) 계산한다고 가정합시다.우리는 ∈}은 k개의{k\displaystyle}월 iterate에 pk(_{k}}가⟨ pk,∇ f()k)⟩<0{\displaystyle\langle \mathbf{p}_{k},\nabla f(\mathbf{x}_{k})\rangle 하강 방향 pkRn{\displaystyle \mathbf{p}_{k}\in\mathbb{R}^{n}을 정의한다. <0, 여기서 where , 내부 제품을 의미한다.그러한 접근방법의 테일러의 로 p \를 따라 작은 걸음으로 {\(가) 줄어든다는 것을 보증하기 때문이다.

⟨− ∇ f()k),∇ f()k)⟩)−⟨ ∇ f()k),∇ f()k)⟩<0{\displaystyle\langle -\nabla f(\mathbf{x}_{k}),\nabla f(\mathbf{x}_{k})\rangle=-\langle \nabla f(\mathbf{x}_{k}),\nabla f(\mathbf{x}_{k})\rangl로 이 정의를 이용하여,이 0은 아닌 그라데이션에 대한 부정적은 항상 하강 방향,.e<>.

하강 방향을 계산하기 위한 수많은 방법들이 존재하는데, 모두 다른 장점을 가지고 있다.예를 들어, 구배 강하 또는 결합 구배 방법을 사용할 수 있다.

일반적으로 (가) 양의 한정 이라면 p =- ∇ f( x ) f는 x 에서 하강 방향이다[1]이 일반성은 전제된 구배 강하 방법에 사용된다.

참고 항목

참조

  1. ^ J. M. Ortega and W. C. Rheinbold (1970). Iterative Solution of Nonlinear Equations in Several Variables. p. 243. doi:10.1137/1.9780898719468.