다항계수 계산 알고리즘
수학 에서, 분열된 차이 는 알고리즘 으로, 역사적으로 로그 와 삼각함수 의 표를 계산하는데 사용된다.[citation needed ] 초기 기계식 계산기 인 찰스 배비지 의 차이 엔진 은 이 알고리즘을 작동에 사용하도록 설계되었다.[1] null
분열된 차이는 반복적 인 분열 과정이다. 이 방법을 사용하여 뉴턴 형식 의 보간 다항식 계수를 계산할 수 있다. null
정의 k + 1 데이터 점 지정
( x 0 , y 0 ) , … , ( x k , y k ) {\displaystyle(x_{0},y_{0}),\ldots ,(x_{k},y_{k}}}} 전방으로 나누어진 차이 는 다음과 같이 정의된다.
[ y ν ] := y ν , ν ∈ { 0 , … , k } {\displaystyle [y_{\nu }]: =y_{\nu },\qquad \nu \{0,\ldots,k\}} [ y ν , … , y ν + j ] := [ y ν + 1 , … , y ν + j ] − [ y ν , … , y ν + j − 1 ] x ν + j − x ν , ν ∈ { 0 , … , k − j } , j ∈ { 1 , … , k } . {\displaystyle [y_{\nu },\ldots ,y_{\nu +j}]: ={\frac {[y_{\nu +1},\ldots ,y_{\nu +j}]-[y_{\nu },\ldots ,y_{\nu +j-1}]}{x_{\nu +j}-x_{\nu }}},\qquad \nu \in \{0,\ldots ,k-j\},\ j\in \{1,\ldots ,k\}. } 역분할된 차이 는 다음과 같이 정의된다.
[ y ν ] := y ν , ν ∈ { 0 , … , k } {\displaystyle [y_{\nu }]: =y_{\nu },\qquad \nu \{0,\ldots,k\}} [ y ν , … , y ν − j ] := [ y ν , … , y ν − j + 1 ] − [ y ν − 1 , … , y ν − j ] x ν − x ν − j , ν ∈ { j , … , k } , j ∈ { 1 , … , k } . {\displaystyle [y_{\nu },\ldots ,y_{\nu -j}]: ={\frac {[y_{\nu },\ldots ,y_{\nu -j+1}]-[y_{\nu -1},\ldots ,y_{\nu -j}]}{x_{\nu }-x_{\nu -j}}},\qquad \nu \in \{j,\ldots ,k\},\ j\in \{1,\ldots ,k\}. } 표기법 만약 데이터 포인트가 함수 as으로 주어진다면,
( x 0 , f ( x 0 ) ) , … , ( x k , f ( x k ) ) {\displaystyle(x_{0},f(x_{0}),\ldots ,(x_{k},f(x_{k})}} 가끔 글을 쓴다.
f [ x ν ] := f ( x ν ) , ν ∈ { 0 , … , k } {\displaystyle f[x_{\nu }]:=f(x_{\nu }),\qquad \nu \in \{0,\ldots,k\}}} f [ x ν , … , x ν + j ] := f [ x ν + 1 , … , x ν + j ] − f [ x ν , … , x ν + j − 1 ] x ν + j − x ν , ν ∈ { 0 , … , k − j } , j ∈ { 1 , … , k } . {\displaystyle f[x_{\nu },\ldots,x_{\nu +j}]: ={\frac {f[x_{\nu +1},\ldots ,x_{\nu +j}]-f[x_{\nu },\ldots ,x_{\nu +j-1}]}{x_{\nu +j}-x_{\nu }}},\qquad \nu \in \{0,\ldots ,k-j\},\ j\in \{1,\ldots ,k\}. } 노드 x 0 , ..., x 의n 함수 ƒ 의 분할된 차이에 대한 몇 가지 공지가 사용된다.
[ x 0 , … , x n ] f , {\displaystyle [x_{0},\ldots ,x_{n}]f,} [ x 0 , … , x n ; f ] , {\displaystyle [x_{0},\ldots ,x_{n};f],} D [ x 0 , … , x n ] f {\displaystyle D[x_{0},\ldots ,x_{n}]f} 등
예 ν = 0 {\displaystyle \nu =0} 과 (와) j {\displaystyle j} 의 처음 몇 개의 값에 대한 구분된 차이:
[ y 0 ] = y 0 [ y 0 , y 1 ] = y 1 − y 0 x 1 − x 0 [ y 0 , y 1 , y 2 ] = [ y 1 , y 2 ] − [ y 0 , y 1 ] x 2 − x 0 = y 2 − y 1 x 2 − x 1 − y 1 − y 0 x 1 − x 0 x 2 − x 0 = y 2 − y 1 ( x 2 − x 1 ) ( x 2 − x 0 ) − y 1 − y 0 ( x 1 − x 0 ) ( x 2 − x 0 ) [ y 0 , y 1 , y 2 , y 3 ] = [ y 1 , y 2 , y 3 ] − [ y 0 , y 1 , y 2 ] x 3 − x 0 {\displaystyle{\begin{정렬}{\mathopen{[}}y_{0}]&, =y_{0}\\{\mathopen{[}}y_{0}일 경우 ,y_{1}]&^{\frac{y_{1}-y_{0}}{x_{1}-x_{0}}}\\{{^{{{{\mathopen\frac[}}y_{1},y_{2}]-{\mathopen{[}}y_{0}일 경우 ,y_{1}][}}y_{0}일 경우 ,y_{1},y_{2}]& \mathopen}{x_{2}-x_{0}}}={\frac{{\frac{{2y_}-y_{1}}{x_{2}-x_{1}}}-{\frac{y_{1}-y_{0}}{x_{1}-x_{0}}}}{x_{2}-x_{0}}}){\fra.c{y_{2}-y_{ 1}}{(x_{2}-x_{1})(x_{2}-x_{0})}}-{\frac {y_{1}-y_{0}}{(x_{1}-x_{0})(x_{2}-x_{0})}}\\{\mathopen {[}}y_{0},y_{1},y_{2},y_{3}]&={\frac {{\mathopen {[}}y_{1},y_{2},y_{3}]-{\mathopen {[}}y_{0},y_{1},y_{2}]}{x_{3}-x_{0}}}\end{aligned}}} 재귀 프로세스를 보다 명확히 하기 위해, 분할된 차이를 표 형식으로 표시할 수 있다.
x 0 y 0 = [ y 0 ] [ y 0 , y 1 ] x 1 y 1 = [ y 1 ] [ y 0 , y 1 , y 2 ] [ y 1 , y 2 ] [ y 0 , y 1 , y 2 , y 3 ] x 2 y 2 = [ y 2 ] [ y 1 , y 2 , y 3 ] [ y 2 , y 3 ] x 3 y 3 = [ y 3 ] {\displaystyle{\begin{행렬}x_{0}&, y_ᆴ=[y_{0}]&,&&\\&, &,[y_{0}일 경우 ,y_{1}]&, &, \\x_{1}&, y_ᆶ=[y_{1}]&, &,[y_{0}일 경우 ,y_{1},y_{2}]&, \\&, &,[y_{1},y_{2}]&, &,[y_{0}일 경우 ,y_{1},y_{2},y_{3}]\\x_{2}&, y_ᆸ=[y_{2}]&, &,[y_{1},y_{2},y_{3}]&, \\&, &,[y_{2},y_{3}]&, &, \\x_{3}&, y_ᆺ=[y_{3}]&, &&\\\end{매트릭스}}} 특성. ( f + g ) [ x 0 , … , x n ] = f [ x 0 , … , x n ] + g [ x 0 , … , x n ] {\displaystyle (f+g)[x_{0},\reason,x_{n}]=f[x_{0},\reason,x_{n}]+g[x_{0},\reason,x_{n}]}} ( λ ⋅ f ) [ x 0 , … , x n ] = λ ⋅ f [ x 0 , … , x n ] {\displaystyle(\displaystyle \cdot f)[x_{0},\x_{n}]=\data \cdot f[x_{0},\display,x_{n}]}} ( f ⋅ g ) [ x 0 , … , x n ] = f [ x 0 ] ⋅ g [ x 0 , … , x n ] + f [ x 0 , x 1 ] ⋅ g [ x 1 , … , x n ] + ⋯ + f [ x 0 , … , x n ] ⋅ g [ x n ] = ∑ r = 0 n f [ x 0 , … , x r ] ⋅ g [ x r , … , x n ] {\displaystyle (f\cdot g)[x_{0},\dots ,x_{n}]=f[x_{0}]\cdot g[x_{0},\dots ,x_{n}]+f[x_{0},x_{1}]\cdot g[x_{1},\dots ,x_{n}]+\dots +f[x_{0},\dots ,x_{n}]\cdot g[x_{n}]=\sum _{r=0}^{n}f[x_{0},\ldots ,x_{r}]\cdot g[x_{r},\ldots ,x_{n}]} 분할된 차이는 대칭이다. σ : { 0 , , , n } → { 0 , … , n } {\displaystyle \sigma :\{0,\dots,n\}\to \{0,\dots,n\}}}}} 이(가) 순열인 경우 . f [ x 0 , … , x n ] = f [ x σ ( 0 ) , … , x σ ( n ) ] {\displaystyle f[x_{0},\displaystyle ,x_{n}]=f[x_{\ma (0)},\display,x_{\ma (n)}]} f [ x 0 , … , x n ] = f ( n ) ( ξ ) n ! {\ displaystyle f[x_{0},\disput ,x_{n}]={\frac {f^{(n)}(\xi )}{n! }}}{}{\displaystyle \xi }} 이(가 ) x k {\displaystyle x_ { k}s 중 가장 작고 큰 것으로 결정된 열린 간격에 있음 . 행렬 양식 분할된 차이 계획은 상위 삼각 행렬 에 넣을 수 있다. Let T f ( x 0 , … , x n ) = ( f [ x 0 ] f [ x 0 , x 1 ] f [ x 0 , x 1 , x 2 ] … f [ x 0 , … , x n ] 0 f [ x 1 ] f [ x 1 , x 2 ] … f [ x 1 , … , x n ] ⋮ ⋮ ⋮ ⋱ ⋮ 0 0 0 … f [ x n ] ) {\displaystyle T_{f}(x_{0},\dots ,x_{n})= {\begin{pmatrix}f[x_{0}]&f[x_{0},x_{1}]&f[x_{0},x_{1},x_{2}]&\ldots &f[x_{0},\dots ,x_{n}]\\0&f[x_{1}]&f[x_{1},x_{2}]&\ldots &f[x_{1},\dots ,x_{n}]\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\ldots &f[x_{n}]\end{pmatrix}}} .
그러면 그것은 지탱한다.
T f + g x = T f x + T g x {\displaystyle T_{f+g}x= T_{f}x+T_{g}x} T f ⋅ g x = T f x ⋅ T g x {\displaystyle T_{f\cdot g}x=T_{f}x\cdot T_{g}x} 이것은 라이프니츠 규정에서 따온 것이다. 그것은 그러한 행렬의 곱셈이 서로 일치한다는 것을 의미한다. 동일한 노드 집합에 대해 분할된 차이 체계 행렬이 정류 링 을 형성한다. T f x {\displaystyle T_{f}x} 는 삼각 행렬이므로 고유값은 분명히 f( x 0 ) , …, f ( x n ) {\displaystyle f(x_{0}),\dots ,f(x_{n}}) 이다. Δ \{\ displaystyle \delta_{\xi}}}} 을(를) 크로네커 델타 같은 함수로 하자. δ ξ ( t ) = { 1 : t = ξ , 0 : 다른 . {\displaystyle \property_{\xi }t(t)={\case}1&:t=\xi,\0&\\mbox{box}}}. \end{case}}} 분명히 f Δ Δ Δ Δ = f ( ⋅ ) Δ Δ Δ Δ Δ{\ displaystyle f\cdot \delta _{\xi )\cdot \delta _{\ xi }, 따라서 Δ ξ {\ displaystysty \delta _{\xi }는 점함수 곱의 고유함수 이다 . That is T δ x i x {\displaystyle T_{\delta _{x_{i}}}x} is somehow an "eigenmatrix " of T f x {\displaystyle T_{f}x} : T f x ⋅ T δ x i x = f ( x i ) ⋅ T δ x i x {\displaystyle T_{f}x\cdot T_{\delta _{x_{i}}}x=f(x_{i})\cdot T_{\delta _{x_{i}}}x} . 그러나 T Δ x i x {\displaystyle T_{\delta _{x_}x} 의 모든 열은 서로 배수로, T Δ x i x {\displaystyle T_{\delta _{x_}x}x} 의 행렬 순위 는 1이다 . 따라서 각 T Δ x i x {\displaystyle T_{\delta _ {x_{i}}x} 의 i {\ displaystyle i} -th 열에서 모든 고유 벡터의 행렬을 구성할 수 있다. 예 : U ( x 0 , x 1 , x 2 , x 3 ) = ( 1 1 ( x 1 − x 0 ) 1 ( x 2 − x 0 ) ⋅ ( x 2 − x 1 ) 1 ( x 3 − x 0 ) ⋅ ( x 3 − x 1 ) ⋅ ( x 3 − x 2 ) 0 1 1 ( x 2 − x 1 ) 1 ( x 3 − x 1 ) ⋅ ( x 3 − x 2 ) 0 0 1 1 ( x 3 − x 2 ) 0 0 0 1 ) {\displaystyle U(x_{0}일 경우 ,x_{1},x_{2},x_{3})={\begin{pmatrix}1&,{\frac{1}{(x_{1}-x_{0})}}&{\frac{1}{(x_{2}-x_{0})\cdot(x_{2}-x_{1})}}&{\frac{1}{(x_{3}-x_{0})\cdot(x_{3}-x_{1})\cdot(x_{3}-x_{2})}}\\0&, 1&,{\frac{1}{(x_{2}-x_{1})}}&{\frac{1}{(x_{3}-x_{1})\cdot(x_{3}-x_{2})}}\\0&, 0&, 1&,{\frac{1}{(x_{3}-x_{2})}}\\0&a.융점, 0&, 0&, 1\end{pmatrix}}} Tf x {\displaystyle T_{f}x} 의 대각선 은 다음과 같이 쓸 수 있다 . U x ⋅ diag ( f ( x 0 ) , … , f ( x n ) = T f x ⋅ U x {\displaystyle Ux\cdot \operatorname {diag}(f(x_{0}),\dots ,f(x_{n})= T_{f}x\cdot Ux} .
대체 정의 확장형 f [ x 0 ] = f ( x 0 ) f [ x 0 , x 1 ] = f ( x 0 ) ( x 0 − x 1 ) + f ( x 1 ) ( x 1 − x 0 ) f [ x 0 , x 1 , x 2 ] = f ( x 0 ) ( x 0 − x 1 ) ⋅ ( x 0 − x 2 ) + f ( x 1 ) ( x 1 − x 0 ) ⋅ ( x 1 − x 2 ) + f ( x 2 ) ( x 2 − x 0 ) ⋅ ( x 2 − x 1 ) f [ x 0 , x 1 , x 2 , x 3 ] = f ( x 0 ) ( x 0 − x 1 ) ⋅ ( x 0 − x 2 ) ⋅ ( x 0 − x 3 ) + f ( x 1 ) ( x 1 − x 0 ) ⋅ ( x 1 − x 2 ) ⋅ ( x 1 − x 3 ) + f ( x 2 ) ( x 2 − x 0 ) ⋅ ( x 2 − x 1 ) ⋅ ( x 2 − x 3 ) + f ( x 3 ) ( x 3 − x 0 ) ⋅ ( x 3 − x 1 ) ⋅ ( x 3 − x 2 ) f [ x 0 , … , x n ] = ∑ j = 0 n f ( x j ) ∏ k ∈ { 0 , … , n } ∖ { j } ( x j − x k ) {\displaystyle{\begin{정렬}[x_{0}]&, =fᆫ\\f[x_{0}일 경우 ,x_{1}]&, ={\frac{f(x_{0})}{(x_{0}일 경우 -x_{1})}}+{\frac{f(x_{1})}{(x_{1}-x_{0})}}\\f[x_{0}일 경우 ,x_{1},x_{2}]&, ={\frac{f(x_{0})}{(x_{0}일 경우 -x_{1})\cdot(x_{0}일 경우 -x_{2})}}+{\frac{f(x_{1})}{(x_{1}-x_{0})\cdot(x_{1}-x_{2})}}+{\frac{f(x_{2})}{(x_{2}-x_{0})\cdot(x_{2}-x_{1})}}\\f-LSB- x_{0},x_{1},x_{2},.x_{3}]&){\fr Ac{f(x_{0})}{(x_{0}일 경우 -x_{1})\cdot(x_{0}일 경우 -x_{2})\cdot(x_{0}일 경우 -x_{3})}}+{\frac{f(x_{1})}{(x_{1}-x_{0})\cdot(x_{1}-x_{2})\cdot(x_{1}-x_{3})}}+{\frac{f(x_{2})}{(x_{2}-x_{0})\cdot(x_{2}-x_{1})\cdot(x_{2}-x_{3})}}+\\&,\quad \quad{\frac{f(x_{3})}{(x_{3}-x_{0})\cdot(x_{3}-x_{1})\cdot(x_{3}-x_{2})}}\\f[x_{0}일 경우 ,\dots{n,x_}]&,=\sum _{j=0}^{n}{\fr.교류{f(x_ {j}{\prod_{k\in \{0,\prod,n\}\setminus \{j\}}}}{j\}}(x_-x_{k}})}\end{aigned}}}}}}}}}
q ( ) ) = ( x - x 0 ) ⋯ ( - - x ) ⋯ ( x - x n ) { (ξ - x n ) {\displaystyle q(\xi_{0 })=(\xi -x_ {n})\cdots (\xi -x_{n}}) 의 도움 을 받아 다음 과 같이 기록할 수 있다.
f [ x 0 , … , x n ] = ∑ j = 0 n f ( x j ) q ′ ( x j ) . {\displaystyle f[x_{0},\displaystyle ,x_{n}]=\sum _{j=0}^{n}{\frac {f(x_{j}}}}}{q'(x_{j}}}}}}}}. } 또는 k < 0 {\displaystyle k<0} 또는 n < {\displaystyle k>{ k}=x_{k+n+1}=x_{ k- (n+1)} 을 (를) 정의하여 시퀀스의 시작부터 거꾸로 카운트를 허용할 수 있다. 이 정의를 통해 x - 1 {\ displaystyle x_{-1 }, x - 2 {\ displaystyle x_ {n-1}, x - 1 {\ displaystyle x_ {-n }, x - 1 {\ displaystyle x_{-n}, 등 으로 해석할 수 있다. 이렇게 나누어진 차이의 확장된 형태는
f [ x 0 , … , x n ] = ∑ j = 0 n f ( x j ) ∏ k = j − n j − 1 ( x j − x k ) = ∑ j = 0 n f ( x j ) ∏ k = j + 1 j + n ( x j − x k ) {\displaystyle f[x_{0},\displaystyle f[x_{n}]=\sum _{j=0}^{n}{\frac {f(x_{j}}}}}}{k=j-n}^{j-1}(x_}-x__{k})} }}}=\sum _{j=0}^{n}{\frac {f(x_{j})}{\prod \prod \prod \prod _{k=j+1}^{j+n}(x_{j}-x_{k}})} }}}
그러나 또 다른 특성화는 다음과 같은 한계를 활용한다.
f [ x 0 , … , x n ] = ∑ j = 0 n 임이 있는 x → x j [ f ( x j ) ( x − x j ) ∏ k = 0 n ( x − x k ) ] {\displaystyle f[x_{0},\data.x_{n}]=\sum _{j=0}^{n}\lim _{x\right]{x\frac {f(x_{j})(x-_{j})}{prod \prod \{k=0}{n}{n}}}}}}}}오른쪽}}}}
부분분수 분할된 차이의 확장된 형태를 사용하여 부분 분수 를 나타낼 수 있다. (이는 연산을 단순화하는 것이 아니라 그 자체로 흥미롭다.) 어디서 deg 와<>degq{\displaystyle \mathrm{deg})p< 만약 p{p\displaystyle}와 q{\displaystyle q}은 다항의 기능,;\mathrm{도})q}과q{\displaystyle q}선형 면에서 q(ξ))(ξ − x1)⋅ ⋯ ⋅(ξ −)n){\displaystyle q(\xi)=(\xi -x_{1})\cd에 의해서 주어진다.고르\d ots \cdot (\xi -x_{n }}) 그러면 다음과 같은 부분분수분해에서 나타난다.
p ( ξ ) q ( ξ ) = ( t → p ( t ) ξ − t ) [ x 1 , … , x n ] . {\displaystyle {\frac {p(\xi )}{q(\xi )}}=\좌측(t\t\t) {\frac {p(t)}{\xi -t}\우측)[x_{1},\capt;x_{n}]. } 분할된 차이의 한계 가 허용될 경우, x j {\displaystyle x_{j} 중 일부가 일치하는 경우 이 연결도 유지된다. null
f {\displaystyle f } 이 (가) 임의의 정도를 갖는 다항식 함수 이고 f( x ) = p ( x ) + q ( x )에 의해 분해되는 경우, f {\ displaystyle f }의 다항식 분할을 사용 하여 f(x)=p(x)+q(x )\ cdot d ( x) 에 의해 분해된다.
p ( ξ ) q ( ξ ) = ( t → f ( t ) ξ − t ) [ x 1 , … , x n ] . {\displaystyle {\frac {p(\xi )}{q(\xi )}}=\좌측(t\t\t) {\frac {f(t)}{\xi -t}\우측)[x_{1},\capt;x_{n}]. } 페아노 형식 분단된 차이는 다음과 같이 표현할 수 있다.
f [ x 0 , … , x n ] = 1 n ! ∫ x 0 x n f ( n ) ( t ) B n − 1 ( t ) d t {\displaystyle f[x_{0},\ldots,x_{n}]={\frac {1}{n! }}}\int _{x_{0}^{x_{n}f^{(n)}(t)B_{n-1}(t)\,dt} where B n − 1 {\displaystyle B_{n-1}} is a B-spline of degree n − 1 {\displaystyle n-1} for the data points x 0 , … , x n {\displaystyle x_{0},\dots ,x_{n}} and f ( n ) {\displaystyle f^{(n)}} is the n {\displaystyle n} -th derivative of the function f {\displaystyle f} .
이것을 분단차이의 페아노 형태 라고 하며, B n - 1 {\ displaystyle B_{n-1} 둘 다 주세페 페아노 의 이름을 따서 분단차이의 피아노 커널 이라고 한다 . null
테일러 폼 퍼스트 오더 노드가 누적되면 거의 두 개의 0을 분할하기 때문에 분할된 차이에 대한 수치 계산이 부정확하며, 각 0은 유사한 값에 대한 근사치 차이 로 인해 상대적 오차 가 높다. 그러나 우리가 알고 있는 차이 인수 는 파생상품 과 비슷하며 그 반대도 다음과 같다.
f ( y ) - f ( x ) - x ≈ f ′ ( x ) {\ displaystyle {\ frac {\f(y)- f( x )}{y-x}}}} 에 대한 약 f'(x )} 이 근사치는 테일러의 정리 가 적용될 때마다 정체성으로 바뀔 수 있다. null
f ( y ) = f ( x ) + f ′ ( x ) ⋅ ( y − x ) + f ″ ( x ) ⋅ ( y − x ) 2 2 ! + f ‴ ( x ) ⋅ ( y − x ) 3 3 ! + … {\displaystyle f(y)=f(x)+f'(x)\cdot(y-x)+f"(x)\cdot {\frac {(y-x)^{2}}! }}}+f''(x)\cdot {\frac {(y-x)^{3}{3}}{3! }}}+\cHB } ⇒ f ( y ) − f ( x ) y − x = f ′ ( x ) + f ″ ( x ) ⋅ y − x 2 ! + f ‴ ( x ) ⋅ ( y − x ) 2 3 ! + … {\displaystyle \Rightarrow {\f(y)-f(x)}{y-x}}}{y-x}}=f'+f'(x)\cdot {\frac {y-x}{2! }}}+f''(x)\cdot {\frac {(y-x)^{2}}{3! }}}+\cHB } 중앙 의 테일러 시리즈 를 x {\displaystyle x} 과(와) y {\displaystyle y} 사이에 확장하여 y - x {\displaystyle y} 의 이상한 힘을 제거할 수 있다.
x = m - h , y = m + h = m + h {\displaystyle x=m-h, y =m+h }, 즉 m = x + y 2 , h = y - x 2 {\ displaystyle m={\x+y}{2}}, h={\frac {y-x}{2 }}:} f ( m + h ) = f ( m ) + f ′ ( m ) ⋅ h + f ″ ( m ) ⋅ h 2 2 ! + f ‴ ( m ) ⋅ h 3 3 ! + … {\displaystyle f(m+h)=f(m)+f'\cdot h+f''(m)\cdot {\frac{h^{2}}! }}}+f''(m)\cdot {\frac{h^{3}{3}{3! }}}+\cHB } f ( m − h ) = f ( m ) − f ′ ( m ) ⋅ h + f ″ ( m ) ⋅ h 2 2 ! − f ‴ ( m ) ⋅ h 3 3 ! + … {\displaystyle f(m-h)=f(m)-f'\cdot h+f''(m)\cdot {\frac{h^{2}}! }}-f''(m)\cdot {\frac{h^{3}{3}{3! }}}+\cHB } f ( y ) − f ( x ) y − x = f ( m + h ) − f ( m − h ) 2 ⋅ h = f ′ ( m ) + f ‴ ( m ) ⋅ h 2 3 ! + … {\displaystyle {\f(y)-f(x)}{y-x}={\frac {f(m+h)-f(m-h)}{2\cdot h}=f'+f''''\cdot {\h^{3! }}}+\cHB } 상위순서 Taylor 시리즈 또는 함수 시리즈 가 있는 다른 표현은 원칙적으로 분할된 차이의 근사치를 위해 사용될 수 있다. 테일러 시리즈는 무한 한 전력 함수 의 총합이다. 함수 f {\displaystyle f} 에서 분할 차이 f [x 0 , … , x n ] {\displaystyle f[x_{0},\dots ,x_{n}}}} 까지의 매핑은 선형 함수 다 . 우리는 이 기능을 기능 총합에 적용할 수도 있다. null
일반적인 함수로 전력 표기법 표현: p n ( x ) = x n . {\displaystyle p_{n}(x)=x^{n}. }
Regular Taylor series is a weighted sum of power functions: f = f ( 0 ) ⋅ p 0 + f ′ ( 0 ) ⋅ p 1 + f ″ ( 0 ) 2 ! ⋅ p 2 + f ‴ ( 0 ) 3 ! ⋅ p 3 + … {\displaystyle f=f(0)\cdot p_{0}+f'(0)\cdot p_{1}+{\frac {f''(0)}{2! }}}\cdot p_{2}+{\frac {f'''(0)}{3! }}}\cdot p_{3}+\pair }
Taylor series for divided differences: f [ x 0 , … , x n ] = f ( 0 ) ⋅ p 0 [ x 0 , … , x n ] + f ′ ( 0 ) ⋅ p 1 [ x 0 , … , x n ] + f ″ ( 0 ) 2 ! ⋅ p 2 [ x 0 , … , x n ] + f ‴ ( 0 ) 3 ! ⋅ p 3 [ x 0 , … , x n ] + … {\displaystyle f[x_{0},\dots ,x_{n}]=f(0)\cdot p_{0}[ x_{0},\property,x_{n}]+f'(0)\cdot p_{1}[x_{0},\property,x_{n}]+{\frac {f"(0)}{2! }}}\cdot p_{2}[x_{0}},\flas,x_{n}]+{\frac {f'(0)}{3! }}}\cdot p_{3}[x_{0},\reason,x_{n}]+\reason }}
다항식 순서보다 차이 순서가 높기 때문에 첫 번째 n {\displaystylen} 용어는 소멸한다는 것을 알고 있으며, 다음 용어에서 분단된 차이는 다음과 같다.
∀ j < n p j [ x 0 , … , x n ] = 0 p n [ x 0 , … , x n ] = 1 p n + 1 [ x 0 , … , x n ] = x 0 + ⋯ + x n p n + m [ x 0 , … , x n ] = ∑ a ∈ { 0 , … , n } m 와 함께 a 1 ≤ a 2 ≤ ⋯ ≤ a m ∏ j ∈ a x j . {\displaystyle {\begin{array}{llcl}\forall j<n&p_{j}[x_{0},\dots ,x_{n}]&=&0\\&p_{n}[x_{0},\dots ,x_{n}]&=&1\\&p_{n+1}[x_{0},\dots ,x_{n}]&=&x_{0}+\dots +x_{n}\\&p_{n+m}[x_{0},\dots ,x_{n}]&=&\sum _{a\in \{0,\dots ,n\}^{m}{\text{ with }}a_{1}\leq a_{2}\leq \dots \leq a_{m}}\prod _{j\in a}x_{j}. \\end{array}}} 따라서 분할된 차이에 대한 Taylor 시리즈는 기본적 으로 f ( n ) ( 0 ) n! {\ displaystyle {\f^{f ^{(n)}{ n}{n! }}} 은 (는) 분할된 차이에 대한 평균값 정리 에 따라 분할된 차이의 단순한 근사값이기도 하다.null
만일 우리가 전력 함수에 대한 분할된 차이를 통상적인 방법으로 계산해야 한다면, 우리 는 f {\displaystyle f} 의 분할된 차이를 계산할 때 겪었던 것과 같은 수치상의 문제를 마주하게 될 것이다. 좋은 점은, 더 간단한 방법이 있다는 것이다. 그것은 지탱하고 있다.
t n = ( 1 − x 0 ⋅ t ) ⋯ ⋅ ( 1 − x n ⋅ t ) ⋅ ( p 0 [ x 0 , … , x n ] + p 1 [ x 0 , … , x n ] ⋅ t + p 2 [ x 0 , … , x n ] ⋅ t 2 + … ) . {\displaystyle t^{n}=(1-x_{0}\cdot t)\cdot (1-x_{n}\cdot t)\cdot (p_{0}[x_{0},\cd_{n}]+p_{1 }}[x_{0}},\messages ,x_{n}]\cdot t+p_{2 }}[x_{0}},\reason,x_{n}]\cdot t^{2}+\reason. } 따라서 공식 파워 시리즈 를 분할 하여 p n {\ displaystyle p_{n} 의 분할된 차이를 계산할 수 있다. 여러 n {\displaystyle n} 에 대해 p n[ h ] {\displaystyle p_{n}[h]} 을(를) 계산할 때 이것이 전력의 연속적인 계산으로 어떻게 감소하는지 확인하십시오.
Taylor 시리즈에 대해 전체적으로 분할된 차이 체계를 계산해야 하는 경우, 전력 시리즈 의 분할된 차이에 대한 섹션을 참조하십시오. null
다항식 및 파워 시리즈 다항식의 분열된 차이는 라이프니츠 법칙의 혜택을 받을 수 있기 때문에 특히 흥미롭다. 다음이 포함된 매트릭스 J {\displaystyle J}
J = ( x 0 1 0 0 ⋯ 0 0 x 1 1 0 ⋯ 0 0 0 x 2 1 0 ⋮ ⋮ ⋱ ⋱ 0 0 0 0 x n ) {\displaystyle J={\begin{pmatrix}x_{0}&1&0&0&\cdots &0\\0&x_{1}&1&0&\cdots &0\\0&0&x_{2}&1&&0\\\vdots &\vdots &&\ddots &\ddots &\\0&0&0&0&&x_{n}\end{pmatrix}}} 노드 x 0 , … , x n {\ displaystyle x_{0},\dots ,x_{n }}, 따라서 Jn {\ displaystyle J^{n}} 은(는) 전력함수 에 대한 분할된 차이점을 포함하며, 따라서 분할된 차이점은 지수 n {\dexent n {\displaystyle n} s for a polynomial function φ ( p ) {\displaystyle \varphi (p)} with respect to the polynomial p {\displaystyle p} by applying p {\displaystyle p} (more precisely: its corresponding matrix polynomial function φ M ( p ) {\displaystyle \varphi _{\mathrm {M} }(p)} ) to the matrix J {\displaystyle J} .
φ ( p ) ( ξ ) = a 0 + a 1 ⋅ ξ + ⋯ + a n ⋅ ξ n {\displaystyle \varphi (p)(\xi )=a_{0}+a_{1 }\cdot \xi +\cdm +a_{n}\cdot \xi ^{n}} φ M ( p ) ( J ) = a 0 + a 1 ⋅ J + ⋯ + a n ⋅ J n {\displaystyle \varphi _{\mathrm {M}}}(p)(J)=a_{0}+a_{1 }}\cdot J+\dots +a_{n}\cdot J^{n}}} = ( φ ( p ) [ x 0 ] φ ( p ) [ x 0 , x 1 ] φ ( p ) [ x 0 , x 1 , x 2 ] … φ ( p ) [ x 0 , … , x n ] 0 φ ( p ) [ x 1 ] φ ( p ) [ x 1 , x 2 ] … φ ( p ) [ x 1 , … , x n ] ⋮ ⋱ ⋱ ⋱ ⋮ 0 … 0 0 φ ( p ) [ x n ] ) {\displaystyle={\begin{pmatrix}\varphi(p)[x_{0}]&, \varphi(p)[x_{0}일 경우 ,x_{1}]&, \varphi(p)[x_{0}일 경우 ,x_{1},x_{2}]&, \ldots &, \varphi(p)[x_{0}일 경우 ,\dots{n,x_}]\\0&, \varphi(p)[x_{1}]&, \varphi(p)[x_{1},x_{2}]&, \ldots, \varphi(p)[x_{1},\dots{n,x_}]\\\vdots &, \ddots &, \ddots &, \ddots &, \vdots \\0&, \ldots &, 0&, 0& &.앰프, \varphi(p)[x_{n}]\end{pmatrix}}} 이것은 오피츠의 공식 으로 알려져 있다.[2] [3]
이제 p {\displaystyle p} 의 정도를 무한대로 늘리는 것, 즉 Taylor 다항식 을 Taylor 시리즈 로 바꾸는 것을 고려해 보십시오.f {\displaystyle f} 을(를) 파워 시리즈 에 해당하는 함수로 두십시오 .J {\displaystyle J} 에 적용된 행렬 시리즈를 계산하여 분할된 차이 체계를 계산할 수 있다. 노드 x 0 , , x n {\ displaystyle x_{0},\dots ,x_{n}} 이 모두 같으면 J {\displaysty J} 는 조던 블록 이며 , 계산은 스칼라 함수를 매트릭스 펑티오에 일반화하는 것으로 요약된다.n 조던 분해 사용.null
전진차이 데이터 포인트가 균등하게 분산될 때 우리는 전진 차이 라고 불리는 특별한 경우를 얻는다. 그것들은 더 일반적으로 나누어진 차이보다 계산하기가 쉽다. null
전방 분할 차이에서 전방 분할 차이 를 복구하려면 전방 분할 차이 에서 "분할된 부분"을 여전히 계산해야 한다는 점에 유의하십시오.null
정의 데이터 점 n개 지정
( x 0 , y 0 ) , … , ( x n − 1 , y n − 1 ) {\displaystyle(x_{0},y_{0}),\ldots ,(x_{n-1},y_{n-1}}) 와 함께
x ν = x 0 + ν h , h > 0 , ν = 0 , … , n − 1 {\displaystyle x_{\nu }=x_{0}+\nu h,\h>0,\nu =0,\ldots,n-1} 분할된 차이는 다음과 같이 정의된 전방 차이 를 통해 계산할 수 있다.
Δ ( 0 ) y i := y i {\displaystyle \Delta ^{(0)}y_{i: =y_{i}}} Δ ( k ) y i := Δ ( k − 1 ) y i + 1 − Δ ( k − 1 ) y i , k ≥ 1. {\displaystyle \Delta ^{(k)}y_{i}:=\Delta ^{(k-1)}y_{i+1}-\Delta ^{(k-1)y_{i}}\k\geq 1.} 분열된 차이와 전진적인 차이 사이의 관계는[4]
f [ x 0 , x 1 , … , x k ] = 1 k ! h k Δ ( k ) f ( x 0 ) . {\displaystyle f[x_{0},x_{1},\ldots,x_{k}]={\frac {1}{1}{k!h^{k}}}}\Delta ^{{(k)f(x_{0}). } 예 y 0 Δ y 0 y 1 Δ 2 y 0 Δ y 1 Δ 3 y 0 y 2 Δ 2 y 1 Δ y 2 y 3 {\displaystyle {\begin{matrix}y_{0}&&&\\&\Delta y_{0}&&\\y_{1}&&\Delta ^{2}y_{0}&\\&\Delta y_{1}&&\Delta ^{3}y_{0}\\y_{2}&&\Delta ^{2}y_{1}&\\&\Delta y_{2}&&\\y_{3}&&&\\\end{matrix}}} 참고 항목
참조 ^ Isaacson, Walter (2014). The Innovators . Simon & Schuster. p. 20. ISBN 978-1-4767-0869-0 . ^ 드 보오르, 칼, 분열 된 차이점, 생존.거의 이론 1(2005), 46–69, [1] ^ 오피츠, G. Steigungsmatrizen , Z. 안젤라. 수학. 메흐. (1964), 44, T52–T54 ^ Burden, Richard L.; Faires, J. Douglas (2011). Numerical Analysis (9th ed.). p. 129 . ISBN 9780538733519 . Louis Melville Milne-Thomson (2000) [1933]. The Calculus of Finite Differences . American Mathematical Soc. Chapter 1: Divided Differences. ISBN 978-0-8218-2107-7 . Myron B. Allen; Eli L. Isaacson (1998). Numerical Analysis for Applied Science . John Wiley & Sons. Appendix A. ISBN 978-1-118-03027-1 . Ron Goldman (2002). Pyramid Algorithms: A Dynamic Programming Approach to Curves and Surfaces for Geometric Modeling . Morgan Kaufmann. Chapter 4:Newton Interpolation and Difference Triangles. ISBN 978-0-08-051547-2 . 외부 링크