차동 동적 프로그래밍

Differential dynamic programming

DDP(Differential Dynamic Programming)궤도 최적화 등급의 최적 제어 알고리즘이다.이 알고리즘은 메인에 의해[1] 1966년에 도입되었고, 이후 제이콥슨과 메인의 eponymous book에서 분석되었다.[2]알고리즘은 역학 및 비용 함수의 국소 2차 모델을 사용하며 2차 수렴을 표시한다.판토자의 단계적 뉴턴의 방법과 밀접한 관련이 있다.[3][4]

유한수평 이산 시간 문제

역학

(1)

컨트롤 ) 지정된 상태 에서 i}+ 까지의 진화에 대해 설명하십시오총비용 는) x 를) 시작하고 제어 시퀀스 {0, U- 을(를) 적용할 때 발생하는 실행비용의 이다수평선에 도달할 때까지 :1

여기서 }과 에 대한 i {\ \이(가) Eq. 1에 의해 주어진다.The solution of the optimal control problem is the minimizing control sequence Trajectory optimization means finding _}) 특정 x {0 대해 가능한 모든 초기 상태가 아닌,

동적 프로그래밍

Let be the partial control sequence and define the cost-to-go as the partial sum of costs i에서 까지

i 에서 최적의 이동 비용 또는 가치 함수는 최소화된 제어 시퀀스를 고려할 때 이동 비용이다.

( , ) ( N를 설정하면 동적 프로그래밍 원리는 제어의 전체 시퀀스에 대한 최소화를 단일 제어에 대한 최소화로 축소하여 다음 시간을 거꾸로 진행한다

(2)

이것이 벨만 방정식이다.

차동 동적 프로그래밍

DDP는 새로운 제어 시퀀스를 생성하기 위해 공칭 궤적에 대한 역방향 패스를 반복적으로 수행하여 새로운 공칭 궤적을 계산하고 평가하기 위한 전진 패스를 수행한다.우리는 후진 패스부터 시작한다.만약

Eq. 2[] 연산자의 인수인 경우, 을(를) -th, ) 쌍 주위에 이 수량의 변동을 두십시오.

그리고 2순위로 확장한다.

(3)

여기서 사용되는 표기법은 첨자가 분모 레이아웃에서 차이를 나타내는 모리모토 표기법의 변형이다.[5]읽기 쉽도록 i i을(를) 삭제하면 다음 시간 단계 V v + ) 확장 계수는

마지막 세 방정식의 마지막 항은 텐서(tensor)를 가진 벡터의 수축을 의미한다. 에 대한 2차 근사치(3) 최소화

(4)

giving an open-loop term and a feedback gain term . Plugging the result back into (3) 이제 시간 의 값에 대한 2차 모델이 제공됨

Recursively computing the local quadratic models of and the control modifications , from down to , constitutes the backward pass.위와 같이 ( , N) ( x N) { ℓ ℓ f ( ) N 후진 패스가 완료되면 전진 패스가 새로운 궤적을 계산한다

후진 패스 및 전진 패스는 수렴될 때까지 반복된다.

정규화 및 라인 검색

차동 동적 프로그래밍은 뉴턴의 방식과 같은 2차 알고리즘이다.따라서 최소화를 향해 큰 걸음을 내딛고 종종 정규화 및/또는 라인 검색을 필요로 한다.[7] DDP 컨텍스트에서 정규화는 Eq u {\Q_{\} \{u 행렬이 양적으로 확실한지 확인하는 것을 의미한다.DDP의 라인 검색은 오픈 루프 제어 수정 을(를) < 만큼 확장하는 것이다

몬테카를로 버전

샘플링된 차동 동적 프로그래밍(SaDDP)[8][9][10]은 차동 동적 프로그래밍의 몬테카를로 변종이다.그것은 차동 동적 프로그래밍의 이차적 비용을 볼츠만 분포의 에너지로 처리하는 것에 기초한다.이 방법으로 DDP의 수량을 다차원 정규 분포의 통계량과 일치시킬 수 있다.그 통계는 분화되지 않고 샘플링된 궤도로부터 다시 계산될 수 있다.

샘플링된 차동 동적 프로그래밍은 차동 동적 프로그래밍을 통한 경로 통합 정책 개선으로 확장되었다.[11]이것은 확률론적 최적 제어의 [12]틀인 차동적 프로그래밍과 경로 적분 제어 사이의 연결을 만든다.

제한된 문제

내부 포인트 차동형 프로그래밍(Internal Point Differential Dynamic Programming, IPDDP)은 비선형 상태 및 입력 제약으로 최적의 제어 문제를 해결할 수 있는 DDP의 내부 포인트 방식 일반화다.[13]

참고 항목

참조

  1. ^ Mayne, D. Q. (1966). "A second-order gradient method of optimizing non-linear discrete time systems". Int J Control. 3: 85–95. doi:10.1080/00207176608921369.
  2. ^ Mayne, David H. and Jacobson, David Q. (1970). Differential dynamic programming. New York: American Elsevier Pub. Co. ISBN 978-0-444-00070-5.
  3. ^ de O. Pantoja, J. F. A. (1988). "Differential dynamic programming and Newton's method". International Journal of Control. 47 (5): 1539–1553. doi:10.1080/00207178808906114. ISSN 0020-7179.
  4. ^ Liao, L. Z.; C. A Shoemaker (1992). "Advantages of differential dynamic programming over Newton's method for discrete-time optimal control problems". Cornell University, Ithaca, NY. hdl:1813/5474. {{cite journal}}:Cite 저널은 필요로 한다. journal=(도움말)
  5. ^ Morimoto, J.; G. Zeglin; C.G. Atkeson (2003). "Minimax differential dynamic programming: Application to a biped walking robot". Intelligent Robots and Systems, 2003.(IROS 2003). Proceedings. 2003 IEEE/RSJ International Conference on. Vol. 2. pp. 1927–1932.
  6. ^ Liao, L. Z; C. A Shoemaker (1991). "Convergence in unconstrained discrete-time differential dynamic programming". IEEE Transactions on Automatic Control. 36 (6): 692. doi:10.1109/9.86943.
  7. ^ Tassa, Y. (2011). Theory and implementation of bio-mimetic motor controllers (PDF) (Thesis). Hebrew University. Archived from the original (PDF) on 2016-03-04. Retrieved 2012-02-27.
  8. ^ "Sampled differential dynamic programming - IEEE Conference Publication". doi:10.1109/IROS.2016.7759229. S2CID 1338737. {{cite journal}}:Cite 저널은 필요로 한다. journal=(도움말)
  9. ^ "Regularizing Sampled Differential Dynamic Programming - IEEE Conference Publication". ieeexplore.ieee.org. Retrieved 2018-10-19.
  10. ^ Joose, Rajamäki (2018). Random Search Algorithms for Optimal Control. Aalto University. ISBN 9789526081564. ISSN 1799-4942.
  11. ^ Lefebvre, Tom; Crevecoeur, Guillaume (July 2019). "Path Integral Policy Improvement with Differential Dynamic Programming". 2019 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM): 739–745. doi:10.1109/AIM.2019.8868359. hdl:1854/LU-8623968. ISBN 978-1-7281-2493-3. S2CID 204816072.
  12. ^ Theodorou, Evangelos; Buchli, Jonas; Schaal, Stefan (May 2010). "Reinforcement learning of motor skills in high dimensions: A path integral approach". 2010 IEEE International Conference on Robotics and Automation: 2397–2403. doi:10.1109/ROBOT.2010.5509336. ISBN 978-1-4244-5038-1. S2CID 15116370.
  13. ^ Pavlov, Andrei; Shames, Iman; Manzie, Chris (2020). "Interior Point Differential Dynamic Programming". arXiv:2004.12710 [math.OC].

외부 링크