재귀 최소 제곱 필터

Recursive least squares filter

재귀 최소 제곱(RLS)은 입력 신호와 관련된 가중 선형 최소 제곱 비용 함수를 최소화하는 계수를 재귀적으로 찾는 적응형 필터 알고리즘이다. 이 접근법은 평균 제곱 오차를 줄이는 것을 목표로 하는 최소 평균 제곱(LMS)과 같은 다른 알고리즘과 대조적이다. RLS의 도출에서 입력 신호는 결정론적인 것으로 간주되는 반면, LMS 및 유사한 알고리즘의 경우 그것들은 확률론적인 것으로 간주된다. RLS는 대부분의 경쟁사와 비교했을 때 매우 빠른 컨버전스를 보인다. 그러나 이러한 이점은 높은 계산 복잡성의 비용으로 발생한다.

동기

RLS는 가우스에 의해 발견되었지만 Plackett이 1821년부터 가우스의 원작을 재발견한 1950년까지 사용되지 않거나 무시되었다. 일반적으로 RLS는 적응형 필터로 해결할 수 있는 모든 문제를 해결하는 데 사용될 수 있다. 예를 들어, 신호 ) 이(가) 에코이(가)를 통해 전송되어 신호 d(n)가 다음과 같이 수신되도록 한다고 가정해 보십시오.

여기서 () 은(는) 가법 노이즈를 나타낸다. RLS 필터의 목적은+ -tap FIR 필터, w 을(를) 사용하여 원하는 신호 ) d을(를) 복구하는 것이다.

여기서 =[( ) x( - 1)… x( - ) \quadots p+ {\의 가장 x ( 샘플을 포함하는 열 벡터 입니다 복구된 원하는 신호의 추정치는 다음과 같다.

목표는 필터 {n의 파라미터를 추정하는 것이며, {\ +1 {\ \+1}에 적응된 제곱 추정치를 한다. 역시 아래와 같이 컬럼 벡터로서, 전치(transpose)인 w { 는 행 벡터다. The matrix product (which is the dot product of and ) is , a scalar. d ( )- ( n) 이(가) 일부 최소 제곱 의미에서 크기가 작을 경우 추정치는 "좋음"이다.

이 진화할수록 +1 {에 대한 새로운 추정치를 찾기 위해 최소 제곱 알고리즘을 완전히 다시 수행하지 않는 것이 바람직하다

RLS 알고리즘의 이점은 행렬을 반전시킬 필요가 없기 때문에 계산 비용을 절감할 수 있다는 것이다. 칼만 필터와 같은 결과 이면에 직관력을 제공한다는 점도 장점이다.

토론

RLS 필터의 이면에 있는 아이디어는 새 데이터가 도착하면 필터를 하고n {\ _{의 필터 계수를 적절하게 선택하여 비용 함수 {\를 최소화하는 것이다. 오류 신호 ) 원하는 신호 은(는) 아래의 음의 피드백 다이어그램에서 정의된다.

AdaptiveFilter C.png

오류는 으로 추정 ( n) 을(를) 통한 필터 계수에 따라 달라진다

따라서 가중 최소 제곱 오차 C{\ - 최소화하고자 하는 비용 함수 - ( ){\ e의 함수도 필터 계수에 따라 달라진다.

여기서 < {\0<\은 오래된 오류 샘플에 기하급수적으로 적은 가중치를 주는 "변수 인자"이다.

벡터 모든 항목 에 대한 부분파생상품을 취하고 결과를 0으로 설정하여 비용함수를 최소화한다.

다음으로 e () 을(를) 오류 신호의 정의로 대체하십시오.

방정식 산출물 재배열

이 형식은 행렬 단위로 표현할 수 있다.

where is the weighted sample covariance matrix for , and is the equivalent estimate for the cross-covariance between and 이 식을 바탕으로 비용 함수를 최소화하는 계수를 다음과 같이 찾아낸다.

이것이 토론의 주된 결과다.

λ 선택

(가) 작을수록 공분산 행렬에 대한 이전 표본의 기여도가 작다. 이는 필터가 최근 샘플에 더 민감하게 반응하게 만들며, 이는 필터 공효과의 변동이 더 크다는 것을 의미한다. = 케이스는 성장하는 윈도우 RLS 알고리즘으로 불린다. 실제로 은(는) 대개 0.98과 1 사이에서 선택된다.[1] 타입 II 최대우도 추정을 사용하면 데이터 집합에서 최적 을(를) 추정할 수 있다.[2]

재귀 알고리즘

논의 결과 비용 함수를 최소화하는 계수 벡터를 결정하기 위한 단일 방정식이 도출되었다. 이 섹션에서는 양식의 재귀적 솔루션을 도출하고자 한다.

where is a correction factor at time . We start the derivation of the recursive algorithm by expressing the cross covariance in terms of

여기서 ( ) (는) + 치수 데이터 벡터임

마찬가지로 는 R (n ) R ( 1){\) 단위로 표현한다.

계수 벡터를 생성하기 위해 결정론적 자동 공분산 행렬의 역행렬에 관심이 있다. 그 일에는 우드베리 매트릭스 정체성이 유용하다. 와 함께

( - ) )는(+ ) -by-+ ) )}이다
( ) 는) (+ ) -by-1(열 벡터)
(는) 1-by+ ) 행 벡터)
}는 1-by-1 ID 행렬이다.

우드베리 매트릭스 정체성은 다음과 같다.

표준 문헌에 부합하기 위해, 우리는 정의한다.

여기서 게인 벡터 ) (는)

다음 단계로 전에 g(n) {\ {n)}을(를) 다른 형태로 가져와야 한다

왼쪽에서 두 번째 항을 뺀 값

) 의 재귀적 정의에서 원하는 형식이 다음과 같다.

이제 우리는 재발을 완료할 준비가 되었다. 논의한 바와 같이

두 번째 단계는 ( n) 의 재귀적 정의에서 따옴 다음은 P 의 대체 형태와 p ()의 재귀적 정의를 통합하고 g 얻는다.

-= (n- ) r (- )rn-1)을사용하여 업데이트 방정식에 도달한다.

여기서 ( )= (n )- T( - 선행 오류다. 후미 오류와 비교하십시오. 필터가 업데이트된 후 계산된 오류:

그 말은 우리가 보정 계수를 찾았다는 겁니다.

이러한 직관적인 만족도 결과는 보정 계수가 가중 인자 를 통해 원하는 감도를 제어하는 오차와 게인 벡터 모두에 정비례한다는 것을 나타낸다

RLS 알고리즘 요약

p-th 순서 RLS 필터에 대한 RLS 알고리즘은 다음과 같이 요약할 수 있다.

매개 변수: = p필터 순서
= 잊는 요인
= 값을 초기화하여 ()
초기화: ( )=
( )= =- p,,-
( )= 여기서 I 순위 p + 이다
계산: = ,,…의 경우,

( )= w( - )+ ( n) g ) {

에 대한 재귀는 대수 리카티 방정식을 따르며 따라서 Kalman 필터와 평행선을 그린다.[3]

격자 재귀 최소 제곱 필터(LRLS)

Lattice Recursive Lest Square 적응 필터는 산술 연산(순서 N)이 적게 필요하다는 점을 제외하고 표준 RLS와 관련이 있다.[4] 기존 LMS 알고리즘보다 빠른 수렴율, 모듈형 구조, 입력상관 매트릭스의 고유값 스프레드 변화에 대한 불감증 등 추가적인 장점을 제공한다. 기술된 LRLS 알고리즘은 사후 오류에 기초하며 정규화된 형태를 포함한다. The derivation is similar to the standard RLS algorithm and is based on the definition of . In the forward prediction case, we have with the input signal as the most up to date sample. 후진 예측 사례는 ( )= ( - - 1) 이며 여기서 나는 우리가 예측하고자 하는 과거의 표본의 지수이고, 입력 신호 가장 최근의 표본이다.[5]

매개 변수 요약

( , ) (는) 전방반사 계수임
( k, ) (는) 역반사 계수다.
( , ) 은(는) 후방의 전방 예측 오류를 나타낸다.
( , ) 은(는) 후방의 역방향 예측 오류를 나타낸다.
( , i) (는) 최소 최소값 후진 예측 오류임
m ( , ) (는) 최소 최소 최소값 전방 예측 오류임
(, ) 은(는) priori 오류와 properi 오류 사이의 변환 계수다.
( ) (는) 피드포워드 승수 계수다.
(는) 0.01일 수 있는 작은 양의 상수임

LRLS 알고리즘 요약

LRLS 필터 알고리즘은 다음과 같이 요약할 수 있다.

초기화:
i = 0,1,...,N의 경우
- ,)= - ,)= k < 0의 경우 x(k) = 0))
계산:
k ≥ 0의 경우
i = 0,1,...,N의 경우
피드포워드 필터링

정규화된 격자 재귀 최소 제곱 필터(NLRLS)

LRLS의 정규화된 형태는 재귀와 변수가 적다. 알고리즘의 내부 변수에 정규화를 적용하여 크기를 1로 제한하여 유지할 수 있다. 이는 일반적으로 높은 계산 부하를 수반하는 분할 및 제곱근 연산의 수 때문에 실시간 애플리케이션에서는 사용되지 않는다.

NLRLS 알고리즘 요약

NLRLS 필터에 대한 알고리즘은 다음과 같이 요약할 수 있다.

초기화:
i = 0,1,...,N의 경우
(- ,)= displaystyle {\만약 x(k) = d(k) = 0(k) = k < 0)))
계산:
k ≥ 0의 경우
( k)= ( - )+ (k) }(입력 신호 에너지)
() = d (k -) + 2 ( ) 스타일 \sigma }(참조 신호 에너지)
i = 0,1,...,N의 경우
피드포워드 필터

참고 항목

참조

  • Hayes, Monson H. (1996). "9.4: Recursive Least Squares". Statistical Digital Signal Processing and Modeling. Wiley. p. 541. ISBN 0-471-59431-8.
  • 사이먼 헤이킨, 프렌티스 홀, 2002, ISBN 0-13-048434-2
  • M.H.A 데이비스, R.B.빈터, 확률적 모델링 제어, 스프링거, 1985년 ISBN 0-412-16200-8
  • 웨이펑 류, 호세 프린시페, 사이먼 헤이킨, 커널 적응 필터링: 종합 소개, 존 와일리, 2010, ISBN 0-470-44753-2
  • R.L. Plackett, 1950, Biometrica, 37, 149-157, ISSN 0006-3444최소 제곱의 일부 이론
  • C.F.Gauss, Theoryia combinationis warnosiae, 1821, Werke, 4. Gottinge

메모들

  1. ^ 에매년 C. 이피아코르, 배리 W. 저비스 디지털 신호 처리: 실용적 접근법, 제2판. 인디애나폴리스: Pearson Education Limited, 2002, 페이지 718
  2. ^ 스티븐 반 베렌버그, 이그나시오 산타마리아, 미겔 라자로-그레딜라 "커널 재귀 최소 사각형에서의 망각 인자 추정", 2012년 6월 23일, 2012년 신호 처리를 위한 기계 학습에 관한 IEEE 국제 워크숍에 접속했다.
  3. ^ 웰치, 그레그, 비숍, 게리 "Calman Filter 소개" 노스캐롤라이나 대학 컴퓨터과학과 9월 17일 채플힐에서 2011년 7월 19일에 접속했다.
  4. ^ Diniz, Paulo S.R. "어댑티브 필터링: 알고리즘 및 실제 구현", 스프링거 네이처 스위스 AG 2020, 7장: 적응 격자 기반 RLS 알고리즘 https://doi.org/10.1007/978-3-030-29057-3_7
  5. ^ 알부, 카들렉, 소프트리, 마투섹, 헤르마넥, 콜먼, 페이건 "Virtex에 RLS 래티스의 (정상화) 구현", 디지털 신호 처리, 2001년 12월 24일에 접속했다.