반복적으로 가중치가 재조정된 최소 제곱

Iteratively reweighted least squares

반복적으로 재가중 최소 제곱법(IRLS)은 p-규격 형태의 객관적 함수로 특정 최적화 문제를 해결하는 데 사용된다.

각 단계가 양식의 가중 최소 제곱 문제 해결을 포함하는 반복적 방법에 의해:[1]

IRLS는 일반화된 선형 모델최대우도 추정치를 찾는 데 사용되며, 다른 정규 분포를 따르는 데이터 집합에서 특이치의 영향을 완화하기 위한 방법으로 M-추정기를 찾는 강력한 회귀 분석에서 사용된다. 예를 들어, 최소 제곱 오차보다 최소 절대 오차를 최소화함으로써,

선형 프로그래밍볼록 프로그래밍에 비해 IRLS의 장점 중 하나는 가우스-뉴턴, 레벤베르크-마르콰르트 수치 알고리즘과 함께 사용할 수 있다는 점이다.

L1 희박한 복구를 위한 최소화

IRLS는 압축 감지 문제에서 1 최소화 및 평활화 minimp 최소화 p < 1에 사용할 수 있다. 알고리즘은 제한된 등거리측정 속성 하에서 t < 1과 t for1 노멀과 초선형에 대한 선형 수렴률을 가지고 있다는 것이 증명되었으며, 이는 일반적으로 희소성 용액에 충분한 조건이다.[2][3] 그러나 대부분의 실제 상황에서는 제한된 등거리측정 속성을 만족시키지 못한다.[citation needed]

Lp 표준 선형 회귀 분석

선형 회귀 문제에 대한 Lp 규범을 최소화하는 매개변수 β = (β1, …,βk)T를 찾으려면,

단계 t + 1에서 IRLS 알고리즘은 가중 선형 최소 제곱 문제 해결을 포함한다.[4]

여기서 W(t) 일반적으로 모든 원소가 처음에 다음과 같이 설정된 무게의 대각 행렬이다.

그리고 각 반복 후 다음 항목으로 업데이트:

사례 p = 1에서 이는 최소 절대 편차 회귀(이 경우 선형 프로그래밍 방법을 사용하여 문제를 접근하는 것이 좋으므로 결과가 정확할 것)[5]에 해당하며 공식은 다음과 같다.

0으로 나누지 않으려면 정규화를 수행해야 하므로 실제로 공식은 다음과 같다.

여기서 (는) 0.0001과 같은 작은 값이다.[5] 가중치 함수에서 을(를) 사용하는 것은 견실한 추정에서 Huber 손실 함수와 동일하다는 점에 유의하십시오. [6]

참고 항목

메모들

  1. ^ C. 시드니 버러스, 반복적 재가중 최소 제곱
  2. ^ Chartrand, R.; Yin, W. (March 31 – April 4, 2008). "Iteratively reweighted algorithms for compressive sensing". IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2008. pp. 3869–3872. doi:10.1109/ICASSP.2008.4518498.
  3. ^ Daubechies, I.; Devore, R.; Fornasier, M.; Güntürk, C. S. N. (2010). "Iteratively reweighted least squares minimization for sparse recovery". Communications on Pure and Applied Mathematics. 63: 1–38. arXiv:0807.0575. doi:10.1002/cpa.20303.
  4. ^ Gentle, James (2007). "6.8.1 Solutions that Minimize Other Norms of the Residuals". Matrix algebra. Springer Texts in Statistics. New York: Springer. doi:10.1007/978-0-387-70873-7. ISBN 978-0-387-70872-0.
  5. ^ a b 윌리엄 A. Pfeil, 통계 교수 보조, 우스터 폴리테크닉 인스티튜트 과학 학부 논문, 2006
  6. ^ Fox, J.; Weisberg, S.(2013), Robust Regression, Course Notes, University of Minnesota.

참조

외부 링크