행렬규범칙

Matrix norm

수학에서 행렬 규범은 요소(벡터)가 행렬(주어진 치수의 행렬)인 벡터 공간에서 벡터 규범이다.null

예선

Given a field of either real or complex numbers, let be the K-vector space of matrices with rows and columns and entries in the field . A matrix norm is a norm on

이 기사는 항상 그러한 규범들을 이중 수직 막대(예: \})로 쓸 것이다.따라서 매트릭스 노먼은 다음 속성을 충족해야 :K^{m n}\mathb 의 함수인 bb : Km [1][2]× {\displaystyle \\ nt}\\mathb {R이다.

모든 스칼라 행렬 , n
  • \ 0양수 값)
  • = = 0 확정)
  • = {\= 절대 동종)
  • + ‖ + + ++ + { { { {\ \ A\ +\ B}(하위첨 또는 삼각형 불평등 충족)

매트릭스와 재배열 벡터를 구별하는 유일한 특징은 곱셈이다.매트릭스 규범은 다음과 같은 하위 곱셈인 경우에 특히 유용하다.[1][2][3]

  • [주 1]

Kn×n 대한 모든 규범은 하위-복제성을 갖도록 재조정될 수 있다. 일부 책에서는 matrix norm이라는 용어가 하위-복제 규범을 위해 사용된다.[4]null

벡터 규범에 의해 유도된 매트릭스 규범

벡터 노먼{ K 벡터 노먼트가 주어졌다고 합시다의 m n 행렬 A는 표준 기준과 관련하여 K에서 }까지의 선형 연산자를 유도하고, 하나는 m\의 공간에 해당하는 유도 규범위를 정의한다.모든 행렬은 다음과 같다.

여기서 은(는) 우월함 의미한다.이 표준은 이(가) 유도한 매핑이 벡터를 얼마나 늘릴 수 있는지 측정한다.벡터 규범 α α alpha }}}, 이외의 표기법은 표준 연산자에 사용할 수 있다.null

p-norms에 의해 유도된 규범

벡터에 대한 p-표준(1㎛ p p ∞)을 두 공간 모두에 사용할 경우 해당 연산자 표준은 다음과 같다.[2]

이러한 유도된 규범들은 아래에 처리된 행렬에 대한 "진입형" p-규범 및 섀튼 p-규범과는 다르며, 일반적으로 also . \에 의해 표시되기도 한다.

= ,, 특수한 경우 유도 행렬 규범은 다음과 같이 계산하거나 추정할 수 있다.

이 값은 행렬의 최대 절대 열 합입니다.

이것은 행렬의 최대 절대 행 합이다.null

= 벡터의 경우 유클리드 규범 또는 표준)의 특수한 경우 유도 행렬 규범은 스펙트럼 규범이다. (두 값은 무한 치수에서 일치하지 않는다. 자세한 내용은 스펙트럼 반경을 참조한다.)The spectral norm of a matrix is the largest singular value of (i.e., the square root of the largest eigenvalue of the matrix , where denotes the conjugate transpose of ):[5]

여기서 () 은 행렬 의 가장 큰 단수 값을 나타낸다 또한,

since and similarly by singular value decomposition (SVD).또 다른 중요한 불평등이 있다.

여기서 \(는) 프로베니우스 표준이다.동일성은 행렬 (가) 1등급 행렬이거나 0등급 행렬인 경우에만 유지된다.이러한 불평등은 행렬의 추적이 그 고유값의 합과 같다는 사실에서 파생될 수 있다.null

= 2 때, A {\\ 2}}을 supp y : , K n = 2= y\ 2= 1 {\에 대해 동등한 정의를 갖는다. K Cauchy-Schwarz 불평등을 이용하여 위의 정의와 동등함을 나타낼 수 있다.null

예를 들어,

우리는 그것을 가지고 있다.

특성.

어떤 연산자 규범도 그들을 유도하는 벡터 규범과 일치하며, 다음을 제공한다.

Suppose ; ; and are operator norms induced by the respective pairs of vector norms ; ; and .그러면.

이것은 에서 따온 것이다.

, 그리고

제곱 행렬

Suppose is an operator norm on the space of square matrices induced by vector norms and . Then, the operator norm is a하위 촉매 행렬 정규:

게다가, 그러한 규범은 불평등을 만족시킨다.

A ,) 1/ ( A (1)

모든 양의 정수 r에 대하여, 여기서 ρ(A)A스펙트럼 반지름이다.대칭 또는 은둔자 A의 경우, 이 경우 2 표준은 정확히 A의 스펙트럼 반지름이기 때문에 (1)에 동일성이 있다.임의 행렬의 경우, 우리는 어떤 표준에 대해서도 동일하지 않을 수 있다; counterrexample은 다음과 같다.

스펙트럼 반경이 사라지는 거지어떤 경우든 매트릭스 표준에 대해 스펙트럼 반경 공식은 다음과 같다.

일관되고 호환되는 규범

A matrix norm on is called consistent with a vector norm on and a vector norm on K 다음과 같은 경우:

for all and all . In the special case of m = n and , is also called compatible with .

모든 유도 규범은 정의에 의해 일관된다.Also, any sub-multiplicative matrix norm on induces a compatible vector norm on by defining .

"진입" 행렬 표준

이러한 규범들은 행렬을 m n{\의 벡터로 취급하며 익숙한 벡터 규범 중 하나를 사용한다.예를 들어 벡터에 대한 p-표준(p 1)을 사용하면 다음과 같은 결과를 얻을 수 있다.

이는 유도 p-규범(위 참조)과 섀튼 p-규범(아래 참조)과는 다른 규범이지만 표기법은 같다.null

특수한 경우 p = 2는 프로베니우스 규범이며, p = ∞은 최대 규범을 산출한다.null

L2,1p,q L 규범

, … , ) {\ (을(를) 행렬 의 열이 되도록 하십시오 , 1표준은[6] 행렬의 열에 있는 유클리드 규범의 합이다.

각 데이터 포인트(열)에 대한 오차가 제곱되지 않기 때문에 함수로 L ,1 1규격이 더 견고하다.강력한 데이터 분석희소성 코딩에 사용된다.null

p, q 1, 2,1 ,1 같이 L , 표준으로 일반화할 수 있다.

프로베니우스 규범

= = 2 L p , 표준에 대해 p = q = 2일 때, 힐베니우스 표준 또는 힐베르트-슈미트 표준이라고 불리는데, 힐베르트-슈미트 표준은 (확률적으로 무한 차원) 힐버트 공간의 연산자의 맥락에서 더 자주 사용된다.이 규범은 다음과 같은 다양한 방법으로 정의될 수 있다.

여기서 ( ) 단수 값이다 트레이스 함수는 제곱 행렬의 대각선 항목의 합계를 반환한다는 점을 기억하십시오.null

프로베니우스 규범 norm)은 유클리드 규범을 n × n {\displaystyle 까지 확장한 것으로, 모든 행렬의 공간에 있는 프로베니우스 내제품에서 유래한다.null

프로베니우스 규범은 하위 곱셈형이며 수치 선형대수에 매우 유용하다.프로베니우스 표준의 하위 다중성은 카우치-슈바르츠 불평등을 이용하여 증명할 수 있다.null

프로베니우스 규범은 유도된 규범보다 계산하기가 더 쉬운 경우가 많으며, 회전(및 일반적으로 단일적 운영)하에서도 불변하는 유용한 성질을 가지고 있다.즉, = F= \ A\모든 단일 매트릭스 대한 이 속성은 추적의 주기적 특성 ( ) = ( X ){\

그리고 유사하게:

서 U 의 단일성(, U= U = 을 사용했다.null

그것은 또한 만족한다.

, 그리고

여기서 , 프로베니우스 이너 제품이다.null

최대 표준

max normp = q = ∞:를 갖는 원소의 norm이다.

이 규범은 하위 복제가 아니다.null

일부 문헌(통신 복잡성 등)에서 } -norm이라고도 하는 최대 표준의 대체 정의는 다음과 같은 인수 규범을 가리킨다는 점에 유의하십시오.

섀튼 규범

섀튼 p-표준은 행렬의 단수값 벡터에 p-표준을 적용할 때 발생한다.[2] 행렬 의 단수 값이 σ으로i 표시되는 경우, Schatten p-norm은 다음과 같이 정의된다.

이러한 규범들은 유도된 p-표준과 다시 표기법을 공유하지만 서로 다르다.null

모든 섀튼 규범들은 하위 증배법이다.또한 이들은 단위적으로 불변하므로 단일 행렬 V 대해for =을(를) 의미한다

가장 친숙한 경우는 p = 1, 2, ∞이다.사례 p = 2는 앞에서 소개한 프로베니우스 규범을 산출한다.사례 p = ∞은 벡터 2-규범에 의해 유도된 연산자 규범인 스펙트럼 규범을 산출한다(위 참조).마지막으로 p = 1은 다음과 같이 정의된 핵 규범(추적 규범 또는 Ky Pan 'n'-norm이라고도[7] 함)을 산출한다.

여기서 은 양의 행렬 B {\을(를) 나타내며 B = A = A {\ 된다. 좀더 정확히 말하면 A A양의 세미데마인 행렬이므로 그 제곱근은 잘 정의되어 있다. { {\ \ 은 순위 순위)의 볼록한 봉투여서 순위 행렬을 검색하기 위해 수학 최적화에 자주 사용된다null

단조 규범

rowner 순서와 관련하여 단조롭다면 matrix norm \(를) monotone이라고 한다.따라서 행렬 표준은 다음과 같은 경우 증가하고 있다.

프로베니우스 규범과 스펙트럼 규범은 단조로운 규범의 예다.[8]null

커트 규범

매트릭스 규범에 대한 또 다른 영감의 원천은 매트릭스를 가중되고 지시된 그래프인접 매트릭스로 고려하는 것에서 발생한다.[9]소위 "컷 노먼(cut norm)"은 관련 그래프가 초당적으로 얼마나 가까운지를 측정한다.

여기서 ∈ Km×n.[9][10][11] 등가 정의(상수 인자까지)는 조건 2 S >n & 2 T >m; S=T; 또는 StT=[10]m을 부과한다.

컷-노멀은 유도 연산자 규범 ‖·‖∞→1과 등가인데, 그 자체가 그로텐디크 규범이라고 하는 또 다른 규범과 등가한다.[11]null

그로텐디크 규범을 정의하려면 먼저 선형 연산자 K1K1 스칼라에 불과하므로 어떤 K→K에서도kk 선형 연산자로 확장된다는 점에 주목한다.더욱이, Knm K에 대한 어떤 기초 선택도 주어진다면, 모든 선형 연산자n K→Km 각 행렬 원소를 스칼라 곱셈을 통해 Kk 원소에 허용함으로써 선형 연산자(Kk)→(nKk)로 확장된다.m그로텐디크 표준은 확장 연산자의 표준이다. 기호는 다음과 같다.[11]

그로텐디크 표준은 기초(일반적으로 표준 기준으로 간주)와 k의 선택에 따라 달라진다.null

규범의 등가성

\cdot \\{\ {\ \ \{\의 두 가지 매트릭스 규범에 대해 다음과 같은 내용을 제공한다.

일부 양수 rs의 경우, 행렬 Afor K n K에 대해 × {\K^{에 대한 모든 규범하며, × 에 동일한 위상을 유도한다.벡터 공간 n K은(는) 유한 치수 (를) 가지기 때문에 이것은 사실이다

Moreover, for every vector norm on , there exists a unique positive real number such that is a sub-multiplicative matrix norm for every .

A sub-multiplicative matrix norm is said to be minimal, if there exists no other sub-multiplicative matrix norm satisfying .

정규 등가성 예제

\을(를) 다시 한 번 유도된 p-norm에 의해 유도된 규범을 가리킨다(위의 유도된 규범 섹션 참조).null

순위 A n n에 대해 다음과 같은 불평등이 유지된다.[12][13]

매트릭스 규범들 사이의 또 다른 유용한 불평등은

핼더 부등식의 특별한 경우지null

참고 항목

메모들

  1. ^ 조건은 정사각형 행렬(m = n)의 경우와 같이 제품이 정의된 경우에만 적용된다.

참조

  1. ^ a b Weisstein, Eric W. "Matrix Norm". mathworld.wolfram.com. Retrieved 2020-08-24.
  2. ^ a b c d "Matrix norms". fourier.eng.hmc.edu. Retrieved 2020-08-24.
  3. ^ Malek-Shahmirzadi, Massoud (1983). "A characterization of certain classes of matrix norms". Linear and Multilinear Algebra. 13 (2): 97–99. doi:10.1080/03081088308817508. ISSN 0308-1087.
  4. ^ Horn, Roger A. (2012). Matrix analysis. Johnson, Charles R. (2nd ed.). Cambridge: Cambridge University Press. pp. 340–341. ISBN 978-1-139-77600-4. OCLC 817236655.
  5. ^ Carl D. Meyer, Matrix Analysis and Applied Linear 대수, §5.2, 페이지.281, 산업 및 응용수학을 위한 협회, 2000년 6월.
  6. ^ Ding, Chris; Zhou, Ding; He, Xiaofeng; Zha, Hongyuan (June 2006). "R1-PCA: Rotational Invariant L1-norm Principal Component Analysis for Robust Subspace Factorization". Proceedings of the 23rd International Conference on Machine Learning. ICML '06. Pittsburgh, Pennsylvania, USA: ACM. pp. 281–288. doi:10.1145/1143844.1143880. ISBN 1-59593-383-2.
  7. ^ Fan, Ky. (1951). "Maximum properties and inequalities for the eigenvalues of completely continuous operators". Proceedings of the National Academy of Sciences of the United States of America. 37 (11): 760–766. Bibcode:1951PNAS...37..760F. doi:10.1073/pnas.37.11.760. PMC 1063464. PMID 16578416.
  8. ^ Ciarlet, Philippe G. (1989). Introduction to numerical linear algebra and optimisation. Cambridge, England: Cambridge University Press. p. 57. ISBN 0521327881.
  9. ^ a b Frieze, Alan; Kannan, Ravi (1999-02-01). "Quick Approximation to Matrices and Applications". Combinatorica. 19 (2): 175–220. doi:10.1007/s004930050052. ISSN 1439-6912. S2CID 15231198.
  10. ^ a b Lovász László (2012). "The cut distance". Large Networks and Graph Limits. AMS Colloquium Publications. Vol. 60. Providence, RI: American Mathematical Society. pp. 127–131. ISBN 978-0-8218-9085-1. Lovász는 [0, 1]에 눕기 위해 A을 재조정한다는 점에 유의한다.null
  11. ^ a b c Alon, Noga; Naor, Assaf (2004-06-13). "Approximating the cut-norm via Grothendieck's inequality". Proceedings of the Thirty-sixth Annual ACM Symposium on Theory of Computing. STOC '04. Chicago, IL, USA: Association for Computing Machinery: 72–80. doi:10.1145/1007352.1007371. ISBN 978-1-58113-852-8. S2CID 1667427.
  12. ^ Golub, Gene; Charles F. 론(1996년).매트릭스 연산 – 제3판.볼티모어:존스 홉킨스 대학 출판부, 56 대 57.ISBN 0-8018-5413-X.
  13. ^ 로저 혼과 찰스 존슨.캠브리지 대학 출판부 제5장 매트릭스 분석, 1985. 1985.ISBN 0-521-38632-2.

참고 문헌 목록

  • 제임스 W. 뎀멜, SIAM, 1997년에 출판된 제1.7절.
  • Carl D. Meyer, Matrix Analysis and Applied Linear 대수학(SIAM, 2000년)이 발간했다.[1]
  • 와트로, 양자정보 이론, 2.3 운영자 규범, 강의 노트, 워털루 대학교, 2011.
  • 켄달 앳킨슨, 수치해석에 대한 소개, 1989년 존 와일리 & 선스 사에 의해 출판되었다.