수학에서 전력 반복(전원법이라고도 함)은 고유값 알고리즘이다: 대각선으로 가능한 A 을
를) 부여하고, 알고리즘은
의 최대(절대값으로) 고유값인 숫자
을 생성하며, 비제로 v
즉
의 해당 고유 벡터
즉 = .이 알고리즘은 폰 미제스 반복이라고도 알려져 있다.[1]null
파워 반복은 매우 간단한 알고리즘이지만 천천히 수렴할 수도 있다.알고리즘의 가장 많은 시간이 소요되는 연산은 벡터에 의한
A 의 곱셈이므로 적절한 구현으로 매우 큰 희소성 매트릭스에 효과적이다.null
방법
2x2 매트릭스에서 전력 반복 알고리즘을 시각화하는 애니메이션.행렬은 두 개의 고유 벡터로 묘사된다.오류는 - }-{\text{로 계산됨 파워 반복 알고리즘은 벡터 b 로 시작하는데
이는 지배적인 고유 벡터 또는 무작위 벡터에 대한 근사치일 수 있다.방법은 재발관계로 설명된다.

따라서 반복할 때마다 벡터 에 A 를 곱하여
정규화한다.null
A A이(가) 다른 고유값보다 절대적으로 큰 고유값을 가지며
시작 벡터 b 이 지배적인 고유값과 연관된 고유벡터 방향으로 0이 아닌 성분을 갖는다고
가정하면, 부분 )은과 같다이(가) 지배적인 고유값과 연관된 고유 벡터로 수렴한다
.null
위의 두 가지 가정을 제외하고, 순서k ) 가 반드시 수렴되는 것은 아니다
.이 순서에서
- = e k v + k

여기서 }는 지배적인 고유값과 연관된 고유 벡터이며
, → \
The presence of the term
implies that
does not converge unless
. Under the two assumptions listed above, the sequence
에 의해 정의된.

지배적인 고유값으로 수렴한다(레이즐리 지수 포함).[clarification needed]null
이를 다음 알고리즘으로 계산할 수 있다(NumPy와 함께 Python에 표시됨).null
#!/usr/bin/env python3 수입하다 불결한 로서 np 반항하다 power_iteration(A, num_message: 인트로): # 이상적으로 랜덤 벡터를 선택 # 우리의 벡터(벡터)가 # 고유벡터와 직교함 b_k = np.무작위의.랜드(A.모양을 내다[1]) 을 위해 _ 에 범위(num_message): # 벡터별 매트릭스 제품 Ab b_k1 = np.점을 찍다(A, b_k) # 규범을 계산 b_k1_normal = np.리날드.규범을 정하다(b_k1) # 벡터 재정상화 b_k = b_k1 / b_k1_normal 돌아오다 b_k power_iteration(np.배열하다([[0.5, 0.5], [0.2, 0.8]]), 10)
관련
고유 에 벡터 b k {\displaystyle 이상적으로는 연관된 고유값을 얻기 위해 Rayleigh 지수를 사용해야 한다.null
이 알고리즘은 구글 페이지랭크를 계산하는 데 사용된다.null
이 방법은 또한 Rayleigh 인수를 계산하여 스펙트럼 반지름(제곱 행렬의 크기가 가장 큰 고유값)을 계산하는 데도 사용할 수 있다.

분석
Let
be decomposed into its Jordan canonical form:
, where the first column of
is an eigenvector of
corresponding to the dominant eigenvalue
. Since the dominant eigenvalu }의 e가
고유하며, 행렬
}],
1 }은 A의 최대 고유값이다
.시작 벡터 은(는) V 열의 선형 조합으로 쓸 수 있다
.

가정으로 0 은(는) 지배적인 고유값 방향으로 0이 아닌 성분을 가지고 있으므로
0
.
+ 에 대한 계산상 유용한 반복 관계는 다음과 같이 다시 작성할 수 있다
.

여기서 A + 1 A + b 0}}}{\ 는 다음 분석에
더 적합하다.null

위의 표현은 → 로 단순화된다.
![{\displaystyle \left({\frac {1}{\lambda _{1}}}J\right)^{k}={\begin{bmatrix}[1]&&&&\\&\left({\frac {1}{\lambda _{1}}}J_{2}\right)^{k}&&&\\&&\ddots &\\&&&\left({\frac {1}{\lambda _{1}}}J_{m}\right)^{k}\\\end{bmatrix}}\rightarrow {\begin{bmatrix}1&&&&\\&0&&&\\&&\ddots &\\&&&0\\\end{bmatrix}}\quad {\text{as}}\quad k\to \infty .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cec7d61aee7e07ab39497f6cf782f074c415a7fd)
limit {1}J_의 고유값이 크기가
1 미만이기 때문에 한계는 다음과 같다.

그 다음은 다음과 같다.

b k 는 k가 클 때
1 }와의 관계를 강조하는 형식으로 작성할 수 있다
.
![{\displaystyle {\begin{aligned}b_{k}&=\left({\frac {\lambda _{1}}{|\lambda _{1}|}}\right)^{k}{\frac {c_{1}}{|c_{1}|}}{\frac {v_{1}+{\frac {1}{c_{1}}}V\left({\frac {1}{\lambda _{1}}}J\right)^{k}\left(c_{2}e_{2}+\cdots +c_{n}e_{n}\right)}{\left\|v_{1}+{\frac {1}{c_{1}}}V\left({\frac {1}{\lambda _{1}}}J\right)^{k}\left(c_{2}e_{2}+\cdots +c_{n}e_{n}\right)\right\|}}\\[6pt]&=e^{i\phi _{k}}{\frac {c_{1}}{|c_{1}|}}{\frac {v_{1}}{\|v_{1}\|}}+r_{k}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/024832f7d5c7731b36d56df90fde0723dd480484)
여기서 =( 1/ ) k 1} \1} 및and
→ 0을
(를) →
시퀀스 ) 가
경계되므로 수렴 시퀀스를 포함한다.우성 고유값에 해당하는 고유 벡터는 스칼라까지만 고유하므로 시퀀스 ) 가 수렴할 수 없지만
는 큰 k에 대한 A의 거의 고유 벡터라는
점에 유의하십시오.
또는 A가 대각선으로 처리될 수 있는 경우 다음과 같은 증거가 동일한 결과를 산출한다.
λ12, ..., ..., let이m let이 되게 하라.m의 고유값(다중성을 갖는 값)Av1, v2, ..., v를m 해당 고유 벡터가 되도록 하십시오. }이
지배적인 고유값으로, > 이
1 에 한다고 합시다
초기 벡터 은(는) 다음과 같이 쓸 수 있다
.

을
(를) 무작위로 선택한 경우(확률이 균일함), c1 ≠ 0(확률 1)이다.지금

반면에:

따라서 는 1{\}의 배수로 수렴된다
정합성은 기하학적이며 비율도 있다.

여기서 }는 두 번째 지배적인 고유값을 나타낸다
.따라서 지배적인 고유값에 가까운 규모의 고유값이 있으면 방법은 천천히 수렴한다.null
적용들
전력 반복 방법은 행렬의 고유값 하나만 근사하지만, 특정 계산 문제에 유용하다.예를 들어, 구글은 검색 엔진에 있는 문서의 페이지 랭크를 계산하기 위해 그것을 사용하고, [2]트위터는 사용자들에게 누구를 팔로우해야 할 지를 보여주는 데 그것을 사용한다.전력 반복 방법은 특히 웹 매트릭스와 같은 희박한 행렬이나 계수 매트릭스 을
(를) 명시적으로 저장할 필요가 없는 매트릭스 프리(matrix-vector) 방법 대신 제품 A x {\을(를 평가하는 기능에 액세스할
수 있는 비대칭 매트릭스의 경우파워 반복 방법이 더 복잡한 아놀드 반복을 능가할 수 있는 조건이 잘 갖춰져 있다.대칭 행렬의 경우, 전력 반복 방법은 거의 사용되지 않는데, 그 수렴 속도는 작은 반복 비용(예: Lanczos 반복 및 LOBPCG)을 희생하지 않고 쉽게 증가할 수 있기 때문이다.
일부 고급 고유값 알고리즘은 전력 반복의 변화로 이해할 수 있다.를 들어 역반복법은 - 1 A 행렬에 전력 반복을 적용한다
다른 알고리즘은 벡터 에 의해 생성된 전체 하위 공간을 살펴본다
이 아공간은 크릴로프 아공간으로 알려져 있다.아놀디 반복이나 란초스 반복으로 연산할 수 있다.null
참고 항목
참조