통합의 대략적인 평가 방법
수학 에서 라플레이스의 방법 은 피에르-시몬 라플레이스 의 이름을 따서 명명된 것으로, 형태의 대략적인 통합 에 사용되는 기법이다.
∫ a b e M f ( x ) d x , {\displaystyle \int _{a}^{b}e^{Mf(x)}\,dx,} 여기서 f ( x ) {\displaystyle f(x)} 은 두 번 구별 할 수 있는 함수 이고 , M 은 큰 숫자이며, 끝점 a 와 b 는 무한할 수 있다. 이 기술은 원래 라플라스 (1774) 에서 제시되었다.
베이지안 통계 에서 라플라스 근사치 는 가우스인이 최대 후사 추정치를 중심으로 하여 후사분포를 근사하는 라플라스 방법을 적용하는 것을 말한다.[1]
라플레이스의 방법론 f ( x ) = sin ( x ) x {\ displaystyle f(x)={\tfrac {\sin ( x )}{x}}}}}} 의 글로벌 최대값 은 M = 0.5의 경우 위 에 표시되고, M = 3(둘 다 파란색)의 경우 아래쪽에 표시된다 . M 이 증가함에 따라 가우스 함수 에 의한 이 함수의 근사치(빨간색으로 표시)가 향상된다. 이 관찰은 라플레이스의 방법의 기초가 된다. 함수 f ( x ) {\displaystyle f(x)} 이(가) x 에서0 고유한 전역 최대값 을 가졌다고 가정하십시오. Let M > 0 {\displaystyle M>0} 은(는) 상수로 하고 다음 두 가지 기능을 고려하십시오.
g ( x ) = M f ( x ) h ( x ) = e M f ( x ) {\displaystyle {\begin}g&=Mf(x)\\h(x)\e^{Mf(x)}\end{aigned}}}} x 는0 g {\displaystyle g} 및 h {\displaystyle h} 의 글로벌 최대값이기도 함을 참고하십시오. 이제 다음을 관찰하십시오.
g ( x 0 ) g ( x ) = M f ( x 0 ) M f ( x ) = f ( x 0 ) f ( x ) h ( x 0 ) h ( x ) = e M f ( x 0 ) e M f ( x ) = e M ( f ( x 0 ) − f ( x ) ) {\displaystyle {\begin{aligned}{\frac {g(x_{0})}{g(x)}}&={\frac {Mf(x_{0})}{Mf(x)}}={\frac {f(x_{0})}{f(x)}}\\[4pt]{\frac {h(x_{0})}{h(x)}}&={\frac {e^{Mf(x_{0})}}{e^{Mf(x)}}}=e^{M(f(x_{0})-f(x)) }}\end{정렬}}} M 이 증가하면 h {\displaystyle h} 의 비율은 기하급수적으로 증가하는 반면 g {\displaystyle g} 의 비율은 변하지 않는다 . 따라서 이 함수의 적분에 대한 유의미한 기여는 x 의0 인접 지점의 x 에서만 발생하며, 이 점은 추정할 수 있다.
라플라스 방법론 그 방법을 진술하고 동기를 부여하기 위해서는 몇 가지 가정이 필요하다. x 가0 통합 간격의 끝점이 아니며, x 가 x 에0 가깝지 않으면 f ( x ) {\ displaystyle f(x )} {\displaystyle f(x_{0}) 에 매우 근접할 수 없으며 , f ″ ( x 0 ) < 0. {\displaystyf"(x_{0})<0 }<0})이라고 가정할 것이다. }
테일러의 정리대 로 x 주위 에0 f ( x ) {\displaystyle f(x)} 을(를) 확장할 수 있다.
f ( x ) = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + 1 2 f ″ ( x 0 ) ( x − x 0 ) 2 + R {\displaystyle f(x)=f(x_{0})+f'(x_{0})+(x-x_{0})+{\frac {1}{1}{1}2}}f"(x_{0})(x-x_{0})^{2}+R} 여기 서 R = O( ( x - x 0 ) 3 ) {\ displaystyle R=O\left((x-x_{0}^{3}\오른쪽)}( big O 표기법 참조).
f {\displaystyle f} 은 x 에서0 글로벌 최대값을 가지며 , x 는0 끝점이 아니기 때문에 정지점 이기 때문에 f {\displaystyle f} 의 파생상품은 x 에서0 사라진다 . 따라서 f ( x ) {\displaystyle f(x)} 함수는 2차 순서에 가깝게 추정될 수 있다 .
f ( x ) ≈ f ( x 0 ) − 1 2 f ″ ( x 0 ) ( x − x 0 ) 2 {\displaystyle f(x)\관련 f(x_{0}-{\frac {1}{1}:{1}:{2}}:\왼쪽 f"(x_{0})\오른쪽(x-x_{0}}^{2}} x 에0 가까운 x(f ″ ( x 0 ) < 0 {\displaystyle f"(x_{0}) 의 경우 가정은 근사치의 정확성을 보장한다.
∫ a b e M f ( x ) d x ≈ e M f ( x 0 ) ∫ a b e − 1 2 M f ″ ( x 0 ) ( x − x 0 ) 2 d x {\displaystyle \int_{a}^{b}e^{Mf(x)}\,dx\관련 e^{Mf(x_{0}})\int_{a}^{b^{b^{1}{1}{1}{1}{2}}M f'(x_{0})^{2}}\dx} (오른쪽 그림 참조). 이 후자의 적분은 통합의 한계가 -disc에서 +discuit 로 가는 경우 0 가우스 적분 이고, 따라서 계산될 수 있다. 우리는 찾아낸다
∫ a b e M f ( x ) d x ≈ 2 π M f ″ ( x 0 ) e M f ( x 0 ) 로서 M → ∞ . {\displaystyle \int_{a}^{b}e^{Mf(x)}\,dx\약 {\sqrt {\frac {2\pi }{M f"(x_{0})}}}e^{{Mf(x_{0}}}}}}}}}{\text}는 }}}}}}}}}}}}}}}}}}}}}}}}}}}:}}}}}}}}}}: {}}}}\text를 \text를 \ 이 방법의 일반화와 임의의 정밀도에 대한 확장은 안개(2008 )에 의해 제공된다.
형식적 진술 및 증거 f ( x ) {\displaystyle f(x)} 이( 가) [, b ] , {\displaystyle [a,b] 에서 연속적으로 두 번 다른 함수이며 다음과 같은 고유한 점 x 0 ∈(, b ){ 0 }\in(a,b) 이 있다고 가정해 보십시오.
f ( x 0 ) = 맥스. x ∈ [ a , b ] f ( x ) 그리고 f ″ ( x 0 ) < 0. {\displaystyle f(x_{0}}=\max _{x\in [a,b]}f(x)\f(x)\text{and}}}\f"<0} } 다음:
임이 있는 n → ∞ ∫ a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) = 1. {\displaystyle \lim _{n\to \flat }{\frac {\int _{b}e^{nf(x)}\,dx}{e^{nf(x_{0}}}}}}}{\sqrt{\frac {2\pif"(x_{0})\오른쪽) }}}}}=1. } 하한: ;0{\displaystyle \varepsilon>0}. f″{\displaystyle f"}연속이 δ 을이 존재한다;0{\displaystyle \delta>0}만약 x0− c<>δ{\displaystyle x_{0}-c<>\delta}가 그때 f ″(c)≥ f− ε(x0)″.{\displaystyle f"(c)\geq f"(x_{0})-\varepsiloε하자.n.}테일러의로 s 정리 , x ∈ (x 0 - Δ , x 0 + Δ ) , {\displaystyle x\in (x_{0}-\delta ,x_{0}+\delta )}
f ( x ) ≥ f ( x 0 ) + 1 2 ( f ″ ( x 0 ) − ε ) ( x − x 0 ) 2 . {\displaystyle f(x)\geq f(x_{0}}+{\frac {1}{1}{1}{1}:{2}}(f")(x_{0}-\varepsilon )(x-x_{0}}^{2}). 그러면 우리는 다음과 같은 하한선을 갖게 된다.
∫ a b e n f ( x ) d x ≥ ∫ x 0 − δ x 0 + δ e n f ( x ) d x ≥ e n f ( x 0 ) ∫ x 0 − δ x 0 + δ e n 2 ( f ″ ( x 0 ) − ε ) ( x − x 0 ) 2 d x = e n f ( x 0 ) 1 n ( − f ″ ( x 0 ) + ε ) ∫ − δ n ( − f ″ ( x 0 ) + ε ) δ n ( − f ″ ( x 0 ) + ε ) e − 1 2 y 2 d y {\displaystyle{\begin{정렬}\int _{를}^{b}e^{nf())}\,dx&,\geq \int _{x_{0}-\delta}^{x_{0}+\delta}e^{nf())}\,dx\\&,\geq e^{nf(x_{0})}\int _{x_{0}-\delta}^{x_{0}+\delta}e^{{\frac{n}{2}}(f"(x_{0})-\varepsilon)(x-x_{0})^{2}}\,dx\\&, =e^{nf(x_{0})}{\sqrt{\frac{1}{n(-f"(x_{0})+\varepsilon)}}}\int_{-\delta{\sqrt{n(-f"(x_{0})+\vare.psilon)}}}^ {\\sqrt {nrtf"(x_{0}}+\varepsilon )}}e^{-{\\frac {1}{1}{2}}:}\,dy\end{aigned}}}}} 변수의 변화로 마지막 평등이 얻어지는 곳
y = n ( − f ″ ( x 0 ) + ε ) ( x − x 0 ) . {\displaystyle y={\sqrt {n(-f"(x_{0}+\varepsilon )}}}(x-x_{0}). } 부정의 제곱근을 취할 수 있도록 f ″ ( x 0 ) < 0 {\displaystyle f"(x_{0})<0} 을(를) 기억하십시오.
위의 불평등 양쪽을 다음과 같이 나누면
e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) {\displaystyle e^{nf(x_{0}}}{\sqrt {\frac {2\pi }{nff"(x_{0})} }}}} 그리고 우리가 얻는 한계는 다음과 같다.
임이 있는 n → ∞ ∫ a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) ≥ 임이 있는 n → ∞ 1 2 π ∫ − δ n ( − f ″ ( x 0 ) + ε ) δ n ( − f ″ ( x 0 ) + ε ) e − 1 2 y 2 d y ⋅ − f ″ ( x 0 ) − f ″ ( x 0 ) + ε = − f ″ ( x 0 ) − f ″ ( x 0 ) + ε {\displaystyle \lim _{n\to \flat }{\frac {\int _{b}e^{nf(x)}\,dx}{e^{nf(x_{0}}}}}}}{\frac {2\pi}{nf"(x_{0}){n0})})}){nf}}}}) }}}}}\geq \lim _{n\to \infty }{\frac {1}{\sqrt {2\pi }}}\int _{-\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}^{\delta {\sqrt {n(-f''(x_{0})+\varepsilon )}}}e^{-{\frac {1}{2}}y^{2}}\,dy\,\cdot {\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})+\varepsilon }}}={\sqrt {\frac {-f''(x_{0})}{-f''(x_{0})+\varepsilon }}}} 이는 임의 의 { {\displaystyle \varepsilon } 에 해당하므로 다음과 같은 하한을 얻는다.
임이 있는 n → ∞ ∫ a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) ≥ 1 {\displaystyle \lim _{n\to \flat }{\frac {\int _{b}e^{nf(x)}\,dx}{e^{nf(x_{0}}}}}}}{\frac {2\pi}{nf"(x_{0}){n0})})}){nf}}}}) }}}\게크 1} 이 증거는 a = - ∞ {\displaystyle a=-\infit } 또는 b = { {\displaystyle b=\infit }(또는 둘 다)일 때도 효과가 있다는 점에 유의하십시오.
상한: 그 증거는 하한선과 유사하지만 몇 가지 불편한 점이 있다. 다시 우리는ε 을 주워;0{\displaystyle \varepsilon>0}지만기 위해서는 증거를 일할 우리가{\displaystyle \varepsilon} 작은 충분히 ε이 필요하도록 f″(x0)+ε<0.{\displaystyle f"(x_{0})+\varepsilon<0을 시작한다.}그리고 나서 위와 같이, f″{\displaystyle f"}의 연속성과 테일러의 정리에 의해 우리가 할 수 있다. Δ > 0 {\displaystyle \delta >0} 을 (를) 찾아서 x - x 0 < Δ {\displaystyle x-x_{0}<\displaystyle }을( 를) 찾으십시오.
f ( x ) ≤ f ( x 0 ) + 1 2 ( f ″ ( x 0 ) + ε ) ( x − x 0 ) 2 . {\displaystyle f(x)\leq f(x_{0})+{\frac {1}{1}{1}{1}:{2}}(f"(x_{0})+\varepsilon )(x-x_{0}}^{2}}}} Lastly, by our assumptions (assuming a , b {\displaystyle a,b} are finite) there exists an η > 0 {\displaystyle \eta >0} such that if x − x 0 ≥ δ {\displaystyle x-x_{0} \geq \delta } , then f ( x ) ≤ f ( x 0 ) − η {\displaystyle f(x)\leq f(x_{0})-\eta } .
그러면 다음과 같은 상한을 계산할 수 있다.
∫ a b e n f ( x ) d x ≤ ∫ a x 0 − δ e n f ( x ) d x + ∫ x 0 − δ x 0 + δ e n f ( x ) d x + ∫ x 0 + δ b e n f ( x ) d x ≤ ( b − a ) e n ( f ( x 0 ) − η ) + ∫ x 0 − δ x 0 + δ e n f ( x ) d x ≤ ( b − a ) e n ( f ( x 0 ) − η ) + e n f ( x 0 ) ∫ x 0 − δ x 0 + δ e n 2 ( f ″ ( x 0 ) + ε ) ( x − x 0 ) 2 d x ≤ ( b − a ) e n ( f ( x 0 ) − η ) + e n f ( x 0 ) ∫ − ∞ + ∞ e n 2 ( f ″ ( x 0 ) + ε ) ( x − x 0 ) 2 d x ≤ ( b − a ) e n ( f ( x 0 ) − η ) + e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) − ε ) {\displaystyle{\begin{정렬}\int _{를}^{b}e^{nf())}\,dx&,\leq \int _{를}^{x_{0}-\delta}e^{nf())}\,dx+\int _{x_{0}-\delta}^{x_{0}+\delta}e^{nf())}\,dx+\int _{x_{0}+\delta}^{b}e^{nf())}\,dx\\&,\leq(b-a)e^{n(f(x_{0})-\eta)}+\int _{x_{0}-\delta}^{x_{0}+\delta}e^{nf())}\,dx\\&, \leq(b-a)e^{n(f(x_{0})-\eta)}+e^{nf(x_{0})}\int _{x_{0}-\.델타}^{x_{ 0}+\delta }e^{{\frac {n}{2}}(f''(x_{0})+\varepsilon )(x-x_{0})^{2}}\,dx\\&\leq (b-a)e^{n(f(x_{0})-\eta )}+e^{nf(x_{0})}\int _{-\infty }^{+\infty }e^{{\frac {n}{2}}(f''(x_{0})+\varepsilon )(x-x_{0})^{2}}\,dx\\&\leq (b-a)e^{n(f(x_{0})-\eta )}+e^{nf(x_{0})}{\sqrt {\frac {2\pi }{n(-f''(x_{0})-\varepsilon )}}}\end{aligned}}} 위의 불평등 양쪽을 다음과 같이 나누면
e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) {\displaystyle e^{nf(x_{0}}}{\sqrt {\frac {2\pi }{nff"(x_{0})} }}}} 그리고 우리가 얻는 한계는 다음과 같다.
임이 있는 n → ∞ ∫ a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) ≤ 임이 있는 n → ∞ ( b − a ) e − η n n ( − f ″ ( x 0 ) ) 2 π + − f ″ ( x 0 ) − f ″ ( x 0 ) − ε = − f ″ ( x 0 ) − f ″ ( x 0 ) − ε {\displaystyle \lim _{n\to \flat }{\frac {\int _{b}e^{nf(x)}\,dx}{e^{nf(x_{0}}}}}}}{\frac {2\pi}{nf"(x_{0}){n0})})}){nf}}}}) }}}}\leq \lim _{n\to \infit }(b-a)e^{-\eta n}{\sqrt {\frac {nnf"(x_{0}) }}{2\pi }}}+{\sqrt {-f"(x_{0})}{-f"(x_{0})-\varepsilon }}}}}}={\sqrt {-f"(x_{0}}){-f"-{0}-\varepsilon }}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ε {\displaystyle \varepsilon } 은(는) 임의적이므로 상한을 구한다.
임이 있는 n → ∞ ∫ a b e n f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) ≤ 1 {\displaystyle \lim _{n\to \flat }{\frac {\int _{b}e^{nf(x)}\,dx}{e^{nf(x_{0}}}}}}}{\frac {2\pi}{nf"(x_{0}){n0})})}){nf}}}}) }}}\leq 1} 그리고 이것을 하한과 결합하면 결과가 나온다.
위의 증거는 a = - - {\displaystyle a=-\ft } 또는 b = ∞ {\displaystyle b=\ft }( 또는 둘 다)일 때 명백히 실패한다는 점에 유의하십시오. 이 사건들을 처리하려면, 우리는 몇 가지 추가적인 추측이 필요하다. 충분한 (필요하지 않은) 가정은 n = 1 , {\displaystyle n=1,} 이다.
∫ a b e n f ( x ) d x < ∞ , {\displaystyle \int _{a}^{b}e^{nf(x)}\,dx<\infit ,} 위 와 같은 숫자 {\ displaystyle \ eta }이(가 ) 존재한다는 것(참고: [a,b]} 간격이 무한인 경우 이는 가정이어야 함). 증명은 위와 같이 진행되지만, 통합의 근사치는 약간 다르다.
∫ a x 0 − δ e n f ( x ) d x + ∫ x 0 + δ b e n f ( x ) d x ≤ ∫ a b e f ( x ) e ( n − 1 ) ( f ( x 0 ) − η ) d x = e ( n − 1 ) ( f ( x 0 ) − η ) ∫ a b e f ( x ) d x . {\displaystyle \int _{a}^{x_{0}-\delta }e^{nf(x)}\,dx+\int _{x_{0}+\delta }^{b}e^{nf(x)}\,dx\leq \int _{a}^{b}e^{f(x)}e^{(n-1)(f(x_{0})-\eta )}\,dx=e^{(n-1)(f(x_{0})-\eta )}\int _{a}^{b}e^{f(x)}\,dx.} 으로 나눌 때
e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) , {\displaystyle e^{nf(x_{0}}}{\sqrt {\frac {2\pi }{nff"(x_{0})} }}},} 우리는 이번 학기 동안 받을 수 있다.
e ( n − 1 ) ( f ( x 0 ) − η ) ∫ a b e f ( x ) d x e n f ( x 0 ) 2 π n ( − f ″ ( x 0 ) ) = e − ( n − 1 ) η n e − f ( x 0 ) ∫ a b e f ( x ) d x − f ″ ( x 0 ) 2 π {\displaystyle {\frac {e^{e^{(x_{0}-\eta )}\int_{a}^{b}e^{f^{f(x)}\,dx}{e^{nf(x_{0}}}}}}}}{\sqrt {\frac {2\pi{n_f"(x_{n(-f)}}}}}}. }}}}}=e^{-(n-1)\eta }{\\sqrt{n}e^{-f(x_{0}}}}}\int _{a}^{b^{f(x)}\,dx{\sqrt {\frac {-f"(x_{0}){2\pi }}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} n → ∞ {\displaystyle n\to \ft } 의 제한은 0 {\displaystyle 0} 입니다. 나머지 증명(흥미로운 용어의 분석)은 위와 같이 진행된다.
무한간격 사례에서 주어진 조건은 위에서 말한 바와 같이 충분하지만 필요하지는 않다. 그러나 대부분의 응용분야는 아니더라도 많은 응용분야에서 조건이 충족된다: 조건은 단순히 우리가 공부하고 있는 적분은 잘 정의되어 있어야 한다(무한하지 않아야 함), x 0{\ displaystyle x_{0}} 에서 함수의 최대치는 "진정한" 최대치(숫자 number > 0 {\displaysty \eta >0} 이 존재해야 함)라고 말한다. n = 1 {\displaystyle n=1} 에 대해 적분 유한성을 요구할 필요는 없지만, 일부 n = N . {\displaystyle n=N 에 대해서는 적분 유한성을 요구하기에 충분하다. }
이 방법은 다음과 같은 4가지 기본 개념에 의존한다.
1.상대오류 이 방법의 "대략"은 절대 오차 가 아니라 상대 오차와 관련이 있다. 그러므로 만약 우리가 설정한다면
s = 2 π M f ″ ( x 0 ) . {\displaystyle s={\sqrt {\frac {2\pi }{M\left f"(x_{0})\오른쪽 }}}. } 본질은 다음과 같이 쓸 수 있다.
∫ a b e M f ( x ) d x = s e M f ( x 0 ) 1 s ∫ a b e M ( f ( x ) − f ( x 0 ) ) d x = s e M f ( x 0 ) ∫ a − x 0 s b − x 0 s e M ( f ( s y + x 0 ) − f ( x 0 ) ) d y {\displaystyle {\begin{aligned}\int _{a}^{b}e^{Mf(x)}\,dx&=se^{Mf(x_{0})}{\frac {1}{s}}\int _{a}^{b}e^{M(f(x)-f(x_{0}))}\,dx\\&=se^{Mf(x_{0})}\int _{\frac {a-x_{0}}{s}}^{\frac {b-x_{0}}{s}}e^{M(f(sy+x_{0})-f(x_{0}))}\,dy\end{aligned}}} 여기서 s {\displaystyle s} 은(는) M {\displaystyle M} 이 (가) 명백히 큰 숫자일 때 작은 숫자이고 상대적 오류는
∫ a − x 0 s b − x 0 s e M ( f ( s y + x 0 ) − f ( x 0 ) ) d y − 1 . {\displaystyle \int _{\frac {a-x_{0}}{s}}^{b-x_{0}}{s}e^{M(f(sy+x_{0})}}dy-1\right.} 이제 이 일체형 을 y ∈[ - D y , D y ] [\displaystyle y\in [-D_{y}}}, D_{y}] 영역과 나머지 영역으로 구분해 봅시다.
2. e M ( f ( s y + x 0 ) - f ( x 0 ) → e - π y 2 {\ displaystyle e^{M(sy+x_{0})-f(x_{0}) }\to e^{-\pi y^{2}}: M {\displaystyle M} 이 (가) 충분히 클 때 정지점 주위에 taylor 의 M ( f ( x ) - f ( x 0 ){\displaystyle M (f(x)-f(x_{0})} 을 중심 으로0 확장 된 것을 보고 y 공간에서는 비교를 하기 때문 에 x 대 y 로 번역해 보자.
M ( f ( x ) − f ( x 0 ) ) = M f ″ ( x 0 ) 2 s 2 y 2 + M f ‴ ( x 0 ) 6 s 3 y 3 + ⋯ = − π y 2 + O ( 1 M ) . {\displaystyle M(f(x)-f(x_{0}) ={\frac {Mf"(x_{0})}{2}}초{2}y^{2}+{\frac {Mf'''(x_{0}}}}}{6}s^{3}}+\cdots =-\pi y^{2}+O\{\frc}{sqrt{M}}}}}}}}}}}}}}}}}}}}}}}\}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}\}}} } x 0 {\ displaystyle x_{0}} 은(는) 정지점이기 때문에 f ′(x0 ) = 0 {\displaystyle f'(x_{0})=0} 에 유의하십시오. From this equation you will find that the terms higher than second derivative in this Taylor expansion is suppressed as the order of 1 M {\displaystyle {\tfrac {1}{\sqrt {M}}}} so that exp ( M ( f ( x ) − f ( x 0 ) ) ) {\displaystyle \exp(M(f(x)-f(x_{0})))} will get closer to the Gaussian function as shown in figure. 게다가
∫ − ∞ ∞ e − π y 2 d y = 1. {\displaystyle \int _{-\infit }^{}e^{-\pi y^{2}}dy=1. } The figure of e M [ f ( s y + x 0 ) − f ( x 0 ) ] {\displaystyle e^{M[f(sy+x_{0})-f(x_{0})]}} with M {\displaystyle M} equals 1, 2 and 3, and the red line is the curve of function e − π y 2 {\displaystyle e^{-\pi y^{2}}} . 3. M {\displaystyle M} 이 (가) 클수록 x {\displaystyle x} 의 작은 범위가 관련됨 Because we do the comparison in y-space, y {\displaystyle y} is fixed in y ∈ [ − D y , D y ] {\displaystyle y\in [-D_{y},D_{y}]} which will cause x ∈ [ − s D y , s D y ] {\displaystyle x\in [-sD_{y},sD_{y}]} ; however, s {\displaystyle s} is inversely proportional to M {\displaystyle {\sqrt { M }}, 선택 한 x {\displaystyle x} 영역은 M {\displaystyle M} 을 (를) 늘리면 작아진다.
4. 라플레이스의 방법의 적분이 수렴하면 상대적 오류 통합의 정지점에 있지 않은 지역의 기여도가 M {\displaystyle M} 이 (가) 증가함에 따라 0이 되는 경향이 있다. 세 번째 개념에 의존해서 우리가 아주 큰 D 를y 선택하더라도, M {\displaystyle M} 을 엄청난 숫자로 늘렸을 때 sD 는y 마침내 아주 적은 숫자가 될 것이다. 그렇다면 M {\displaystyle M} 이(가) 충분히 큰데 나머지의 적분이 0이 된다고 어떻게 장담할 수 있겠는가?
기본 아이디어는 m ( x ) ≥ f ( x ) ≥ f ( x ) {\displaystyle m(x)\geq f(x)} 과 e M ( x ) {\ displaystyle e^{Mm(x)} 의 적분은 M {\displaystysty M} 이 커지면 0이 되는 경향이 있는 기능 m( x ) 을 찾는 것이다. M m ( x ) {\displaystyle Mmm (x)} 의 지수함수는 항상 m ( x ) {\displaystyle m(x)} 이(가 ) 실수인 한 0보다 크며 , 이 지수함수는 m ( x ) , {\displaystym m(x)} 에 비례하기 때문 에 eM f ( x ){\ displaystystystytype e^{Mf(x)} 의 적분은 0이 0이 0이 된다 . 단순성을 위해 그림에서와 같이 m ( x ) {\displaystyle m(x)} 을(를) x = s D y {\ displaystyle x=sD_{y}} 지점의 접선 으로 선택하십시오 .
m ( x ) {\displaystyle m(x)} 은(는) x = ± D y + x 0 {\displaystyle x=\pm sD_{y}+x_{0}} 를 통과하는 두 개의 접선 라인으로 표시된다. s D y {\ displaystyle sD_{y}} 가 작아지면 커버 영역이 커진다. 만약 이 방법의 통합 간격이 유한하다면, 우리 는 f ( x ) {\displaystyle f(x)} 이(가) 나머지 영역에서 계속된다 하더라도 M {\displaystyle M }이 (가 ) 충분히 클 때 위의 m ( x ) {\displaystyle m(x)} 보다 항상 작다는 것을 알게 될 것이다. 그런데, 나중 에 M {\displaystyle M} 이 (가) 충분히 클 때 e M ( x ){\ displaystyle e^{Mmm(x)}} 의 적분이 0이 되는 경향이 있음을 증명할 것이다.
이 방법의 통합 간격이 무한하면 m( x ) {\displaystyle m(x)} 및 f( x ) {\displaystyle f(x)} 이(가) 항상 서로 교차할 수 있다 . 만일 그렇다면 , 우리 는 e M f ( x ){\ displaystyle e^{Mf(x)}}}}}} 의 적분이 최종적으로 0이 되는 경향을 보일 것이라고 장담할 수 없다. 예를 들어 f ( x ) = sin ( x ) x , {\displaystyle f(x)={\tfrac {\sin(x)}{x}},} 0 0 e m f ( x ) d ( x ) x \\style \int _{0}^{e^{Mf(x)dx}. 따라서 무한 간격 사례에 대해 ∫ d ∞ e M f ( x ) d \\displaystyle \int _{d}^{\infit }e^{Mf(x)}dx} 이(가) 수렴할 수 있도록 요구할 필요가 있다. 만일 그렇다면, 이 적분은 d {\displaystyle d} 이 (가 ) 충분히 크면 0이 되는 경향이 있으며, 우리 는 m ( x ) {\displaystyle m(x)} 과 f ( x ) . {\displaystyle f(x ) 의 교차로서 이 d {\displaystystyle d} 을 선택할 수 있다. }
integral d ∞ e f ( x ) d x {\displaystyle \int _{d}^{\infit }e^{f(x)}dx} 을(를) 수렴 적분으로 선택하는 것이 어떻겠느냐고 물을 수도 있다. 예를 들어 그 이유를 보여 주겠다. Suppose the rest part of f ( x ) {\displaystyle f(x)} is − ln x , {\displaystyle -\ln x,} then e f ( x ) = 1 x {\displaystyle e^{f(x)}={\tfrac {1}{x}}} and its integral will diverge; however, when M = 2 , {\displaystyle M=2,} the integral of e M f ( x ) = 1 x 2 {\displaystyle e^{Mf(x) }}={\tfrac{1}{x^{2}} 회 수렴한다 . 따라서 일부 기능 의 통합은 M {\displaystyle M} 이(가 ) 큰 숫자가 아닐 때 분산되지만 M {\displaystyle M} 이(가) 충분히 클 때 수렴된다.
이 네 가지 개념을 바탕으로 우리는 이 라플레이스의 방법의 상대적 오류를 도출할 수 있다.
기타 제형식 라플레이스의 근사치는 때때로 다음과 같이 쓰여진다.
∫ a b h ( x ) e M g ( x ) d x ≈ 2 π M g ″ ( x 0 ) h ( x 0 ) e M g ( x 0 ) 로서 M → ∞ {\displaystyle \int_{a}^{b}h(x)e^{Mg(x)}\,dx\약 {\sqrt {\frac {2\pi }{M g"(x_{0}) }}}}}h(x_{0})e^{Mg(x_{0}}}}}}}}\text{{{{}}}}}}}}}}}}}}}}}}}}}}}{{{{{{}}}}}}}}}}}}} 여기 서 h {\displaystyle h} 은(는) 양의 값이다 .
중요한 것은, 근사치의 정확도는 통합 의 변수, 즉 g ( x ) {\displaystyle g(x)} 에 머무르는 것과 h ( x ) {\displaystyle h(x)} 에 들어가는 것에 달려 있다. [2]
먼저 x 0 = 0 {\displaystyle x_{0}=0} 을(를) 사용하여 전역 최대값을 나타내며, 이 파생을 단순화한다. 우리 는 R {\ displaystyle R } 로 쓰여진 상대적 오류에 관심이 있다.
∫ a b h ( x ) e M g ( x ) d x = h ( 0 ) e M g ( 0 ) s ∫ a / s b / s h ( x ) h ( 0 ) e M [ g ( s y ) − g ( 0 ) ] d y ⏟ 1 + R , {\displaystyle \int _{a}^{b}h(x)e^{Mg(x)}\,dx=h(0)e^{Mg(0)}s\underbrace {\int _{a/s}^{b/s}{\frac {h(x)}{h(0)}}e^{M\left[g(sy)-g(0)\right]}dy} _{1+R},} 어디에
s ≡ 2 π M g ″ ( 0 ) . {\displaystyle s\equiv {\sqrt {2\pi }{M\left g"(0)\오른쪽 }}}. } 그래서, 우리가 허락한다면
A ≡ h ( s y ) h ( 0 ) e M [ g ( s y ) − g ( 0 ) ] {\displaystyle A\equiv {\frac {h(sy)}{h(0)}e^{M\왼쪽[g(sy)-g(0)\오른쪽]}}}} 그리고 A 0 e e - y y 2 {\displaystyle A_{0}\equiv e^{-\pi y^{ 2}}, 우리는 얻을 수 있다.
R = ∫ a / s b / s A d y − ∫ − ∞ ∞ A 0 d y {\displaystyle \왼쪽 R\오른쪽 =\왼쪽 \int _{a/s}^{b/s}A\,dy-\int _{-\infit }^{\infit }^{\infit }A_{0}\,dy\right }} 이후 ∫ - ∞ ∞ ∞ 0 d y = 1 {\displaystyle \int _{-\infit }^{\infit }A_{0}\,dy=1 }.
상한의 경우 A + B ≤ A + B , {\displaystyle A+B \leq A + B ,} 에 따라 이 통합을 각각 세 가지 유형(a), (b) 및 (c)으로 5 부분으로 나눌 수 있다. 그러므로
R < ∫ D y ∞ A 0 d y ⏟ ( a 1 ) + ∫ D y b / s A d y ⏟ ( b 1 ) + ∫ − D y D y ( A − A 0 ) d y ⏟ ( c ) + ∫ a / s − D y A d y ⏟ ( b 2 ) + ∫ − ∞ − D y A 0 d y ⏟ ( a 2 ) {\displaystyle R <\underbrace {\left \int _{D_{y}}^{\infty }A_{0}dy\right } _{(a_{1})}+\underbrace {\left \int _{D_{y}}^{b/s}Ady\right } _{(b_{1})}+\underbrace {\left \int _{-D_{y}}^{D_{y}}\left(A-A_{0}\right)dy\right } _{(c)}+\underbrace {\left \int _{a/s}^{-D_{y}}Ady\right } _{(b_{2})}+\underbrace {\left \int _{-\infty }^{-D_{y}} A_{0}dy\right } _{(a_{2})}}} where ( a 1 ) {\displaystyle (a_{1})} and ( a 2 ) {\displaystyle (a_{2})} are similar, let us just calculate ( a 1 ) {\displaystyle (a_{1})} and ( b 1 ) {\displaystyle (b_{1})} and ( b 2 ) {\displaystyle (b_{2})} are similar, too, I’ll just calculate ( b 1 ) {\displaystyle (b_{1} )} .
(1 ) {\displaystyle (a_{1}}) 의 경우, z ≡ 2 y 2 {\displaystyle z\equiv \pi y^{2 }}번 번역한 후, 우리는 얻을 수 있다.
( a 1 ) = 1 2 π ∫ π D y 2 ∞ e − z z − 1 / 2 d z < e − π D y 2 2 π D y . {\displaystyle (a_{1})=\left {\frac {1}{2{\sqrt {\pi }}}}\int _{\pi D_{y}^{2}}^{\infty }e^{-z}z^{-1/2}dz\right <{\frac {e^{-\pi D_{y}^{2}}}{2\pi D_{y}}}. } 이것 은 D y {\ displaystyle D_{y}} 가 충분히 크기만 하면 0이 되는 경향이 있다는 것을 의미한다.
(b 1 ) {\displaystyle (b_{1}}) 의 경우,
( b 1 ) ≤ ∫ D y b / s [ h ( s y ) h ( 0 ) ] 맥스. e M m ( s y ) d y {\displaystyle (b_{1})\leq \left \int _{D_{y}^{b/s}\왼쪽[{\frac {h(sy)}{h(0)}}\right]_{\text{max}e^{Mmm(sy)dy}dy\right}}}}}} 어디에
m ( x ) ≥ g ( x ) − g ( 0 ) 로서 x ∈ [ s D y , b ] {\displaystyle m(x)\geq g(x)-g(0){\text{as}x\in [sD_{y}b]} 및 h ( x ) {\displaystyle h(x)} 은(는) 이 영역 동안 h ( 0 ) {\displaystyle h(0)} 의 동일한 기호를 가져야 한다 . Let us choose m ( x ) {\displaystyle m(x)} as the tangent across the point at x = s D y {\displaystyle x=sD_{y}} , i.e. m ( s y ) = g ( s D y ) − g ( 0 ) + g ′ ( s D y ) ( s y − s D y ) {\displaystyle m(sy)=g(sD_{y})-g(0)+g'(sD_{y})\left(sy-sD_{y}\right)} which is shown in the figure
m ( x ) {\displaystyle m(x)} 은 (는) x = s D y {\displaystyle x= sD_{y}} 의 점을 가로지르는 접선 선입니다. 이 그림에서 s {\displaystyle s} 또는 D y {\ displaystyle D_{y}} 이(가 ) 작아지면 위의 불평등을 만족하는 영역이 더 커짐을 알 수 있다. 따라서 (b 1 ) {\displaystyle (b_{1 }) 의 간격 동안 전체 f ( x ) {\displaystyle f(x)} 을(를) 커버할 수 있는 적합 한 m( x ) {\displaystyle m(x)} 을(를) 찾으려면 D y {\ displaystysty_{y} 의 상한 값이 된다 . 게다가 e - α x {\ displaystyle e^{-\alpha x} 의 통합은 간단하기 때문에, 이 (b 1 ){\displaystyle (b_{1}) 에 의해 발생한 상대적 오류를 추정하는 데 사용하겠다.
테일러 확장을 바탕으로
M [ g ( s D y ) − g ( 0 ) ] = M [ g ″ ( 0 ) 2 s 2 D y 2 + g ‴ ( ξ ) 6 s 3 D y 3 ] 로서 ξ ∈ [ 0 , s D y ] = − π D y 2 + ( 2 π ) 3 / 2 g ‴ ( ξ ) D y 3 6 M g ″ ( 0 ) 3 2 , {\displaystyle {\reasoned} M\left[g(sD_{y})-g(0)\right]& =M\left[{\frac {g"(0)}{2}}초^{2} }}D_{y}^{2}+{\frac {g''(\xi )}{6}s^{3 }D_{y}^{3}\right]&&{\text{as }}\xi \in [0,sD_{y}]\\&=-\pi D_{y}^{2}+{\frac {(2\pi )^{3/2}g'''(\xi )D_{y}^{3}}{6{\sqrt {M}} g''(0) ^{\frac {3}{2}}}},\end{aligned}}} 그리고
M s g ′ ( s D y ) = M s ( g ″ ( 0 ) s D y + g ‴ ( ζ ) 2 s 2 D y 2 ) 로서 ζ ∈ [ 0 , s D y ] = − 2 π D y + 2 M ( π g ″ ( 0 ) ) 3 2 g ‴ ( ζ ) D y 2 , {\displaystyle {\begin}Msg'(sD_{y})&=Ms\left(g"0)s D_{y}+{\frac {g''(\zeta )}{2}}초^{2 }D_{y}^{2}\right)&&{\text{as }}\zeta \in [0,sD_{y}]\\&=-2\pi D_{y}+{\sqrt {\frac {2}{M}}}\left({\frac {\pi }{ g''(0) }}\right)^{\frac {3}{2}}g'''(\zeta )D_{y}^{2},\end{aligned}}} 그리고 나서 그것들을 다시 (b 1 ) {\displaystyle (b_{1}) 의 계산으로 대체한다. 그러나 이 두 팽창의 잔존자는 모두 M {\displaystyle M }의 제곱근에 반비례한다는 것을 발견할 수 있다. 계산을 미화하기 위해 그것들을 내려놓을 수 있다. 그것들을 유지하는 것이 더 좋지만, 그것은 그 공식을 더 못생기게 만들 것이다.
( b 1 ) ≤ [ h ( s y ) h ( 0 ) ] 맥스. e − π D y 2 ∫ 0 b / s − D y e − 2 π D y y d y ≤ [ h ( s y ) h ( 0 ) ] 맥스. e − π D y 2 1 2 π D y . {\displaystyle {\begin{aligned}(b_{1})&\leq \left \left[{\frac {h(sy)}{h(0)}}\right]_{\max }e^{-\pi D_{y}^{2}}\int _{0}^{b/s-D_{y}}e^{-2\pi D_{y}y}dy\right \\&\leq \left \left[{\frac {h(sy)}{h(0)}}\right]_{\max }e^{-\pi D_{y}^{2}}{\frac {1}{2\pi D_{y}}}\right .\end{aligned}}} 따라서 Dy {\ displaystyle D_{y}} 가 커지면 0이 되는 경향이 있지만, 이 계산 중에는 Dy {\displaystyle D_{y} 의 상한 값을 고려해야 한다는 점을 잊지 마십시오.
x = 0 {\displaystyle x=0} 에 가까운 통합에 대해서도 테일러의 정리 를 사용하여 계산할 수 있다. h ′ ( 0 ) ≠ 0 {\displaystyle h'(0)\neq 0} 인 경우
( c ) ≤ ∫ − D y D y e − π y 2 s h ′ ( ξ ) h ( 0 ) y d y < 2 π M g ″ ( 0 ) h ′ ( ξ ) h ( 0 ) 맥스. ( 1 − e − π D y 2 ) {\displaystyle {\begin{aligned}(c)&\leq \int _{-D_{y}}^{D_{y}}e^{-\pi y^{2}}\left {\frac {sh'(\xi )}{h(0)}}y\right \,dy\\&<{\sqrt {\frac {2}{\pi M g''(0) }}}\left {\frac {h'(\xi )}{h(0)}}\right _{\max }\left(1-e^{-\pi D_{y}^{2}}\right)\end{aligned}}} 그리고 M {\displaystyle M} 의 제곱근에 반비례한다는 것을 알 수 있다. 실제로 ( c ) {\ displaystyle (c)} 은 h ( x ) {\displaystyle h(x)} 이 상수일 때 동작이 같을 것이다.
결정적으로 정지점 부근의 적분은 M {\ displaystyle {\sqrt {M} 이 (가) 커짐에 따라 작아지고, 나머지 부분 은 Dy {\displaystyle D_{y} 이 (가) 충분히 크기만 하면 0이 되는 경향이 있지만, Dy {\displaystyle D_{y} 이) 상한을 가지고 있다는 것을 기억해야 한다. 함수 m ( x ) {\displaystyle m(x)} 은(는) 항상 나머지 영역의 g ( x ) - g ( 0 ) {\displaystyle g(x)-g(0) 보다 크다 . However, as long as we can find one m ( x ) {\displaystyle m(x)} satisfying this condition, the upper bound of D y {\displaystyle D_{y}} can be chosen as directly proportional to M {\displaystyle {\sqrt {M}}} since m ( x ) {\displaystyle m(x)} is a tangent across the point of g ( x ) − g ( 0 ) {\displa x = s D y {\ displaystyle x=sD_{y}} 의 ystyle g(x)-g( 0). 따라서 M {\displaystyle M} 이 (가) 클수록 Dy {\ displaystyle D_{ y}은( 는) 클 수 있다 .
x {\ displaystyle \mathbf {x} 이( 가) d {\displaystyle d} -d차원 벡터 이고 f( x ) {\displaystyle f(\mathbf {x} ) 가 x {\ displaysty \mathbf {x} 의 스칼라 함수인 다변수의 경우, 라플라스의 근사치는 일반적으로 다음과 같이 기록된다.
∫ h ( x ) e M f ( x ) d x ≈ ( 2 π M ) d / 2 h ( x 0 ) e M f ( x 0 ) − H ( f ) ( x 0 ) 1 / 2 로서 M → ∞ {\displaystyle \int h(\mathbf {x} )e^{Mf(\mathbf {x} )}\,d\mathbf {x} \approx \left({\frac {2\pi }{M}}\right)^{d/2}{\frac {h(\mathbf {x} _{0})e^{Mf(\mathbf {x} _{0})}}{\left -H(f)(\mathbf {x} _{0})\right ^{1/2}}}{\text{ as }}M\to \infty } 여기서 H ( f ) ( x 0 ) {\displaystyle H(f)(\mathbf {x} _{0}) 는 x 0 {\ displaystyle \ mathbf {x} _{0} 에서 평가된 f {\ displaystystyle f} 의 헤시안 행렬 이며, 여기서 } 은 행렬 결정요인 을 나타낸다 . 일변량 사례와 유사하게, 헤시안은 음의 확정 이 요구된다.[3]
By the way, although x {\displaystyle \mathbf {x} } denotes a d {\displaystyle d} -dimensional vector, the term d x {\displaystyle d\mathbf {x} } denotes an infinitesimal volume here, i.e. d x := d x 1 d x 2 ⋯ d x d {\displaystyle d\mathbf {x} :=dx_{1}dx_{2}\cdots dx_{d}} .
라플레이스의 방법 확장: 급강하 라플레이스의 방법의 연장에서는 복잡한 분석 , 특히 카우치의 적분 공식 은 선 적분 으로 표현되는 (대형 M 을 갖는 비증상학적으로) 등가선 적분에서 가장 가파른 강하 윤곽 을 찾는 데 사용된다. 특히 실제 라인에서 f {\displaystyle f}의 파생상품이 소멸되는 지점 x 가0 없는 경우, 위의 분석이 가능한 최적의 것으로 통합 윤곽선을 변형할 필요가 있을 수 있다. 다시 말하지만, 주요 아이디어는 적어도 무증상적으로 명시적으로 평가할 수 있는 더 간단한 적분 계산에 주어진 적분 계산을 줄이는 것이다. 간단한 논의는 에르델리이(1956년)의 책을 참고하십시오(여기서 방법은 가장 가파른 내리막 이라고 불린다).
복합 z-평면에 적합한 제형은
∫ a b e M f ( z ) d z ≈ 2 π − M f ″ ( z 0 ) e M f ( z 0 ) 로서 M → ∞ . {\displaystyle \int_{a}^{b}e^{Mf(z)}\,dz\약 {\sqrt {\frac {2\pi }{-Mf"(z_{0}}})}e^{Mf(z_{0}}}}}}}}}{\text{}}}}}}}}}. 안장 지점 z 를0 통과하는 경로 두 번째 파생상품의 방향을 나타내는 마이너스 기호의 명시적인 외관에 유의하십시오. 계수를 가져서 는 안 된다. 또한 통합이 공형인 경우 윤곽선을 변형하는 동안 횡방향으로 이동한 극에 해당하는 잔류물을 추가해야 할 수 있다(예: Okunkov의 종이 Symmetric 함수와 랜덤 파티션 의 섹션 3 참조).
추가 일반화 가장 가파른 내리막길의 확장은 이른바 비선형 정지 위상/스티븐 강하 방법 이다. 여기서는 통합이 아니라 리만-힐버트 요인화 문제 의 점증적 해결책을 평가할 필요가 있다.
복잡한 구체 의 등고선 C 에 대해 정의된 함수 f {\displaystyle f} 와 그 등고선에 정의된 특수 지점인 무한대로 말하면, 사람들은 등고선 C 에서 멀리 떨어져 있는 함수 M의 홀로모르픽을 찾고 , C를 가로질러 규정된 점프를 하며, 무한대로 일정한 정규화를 가진다. 만약 f {\displaystyle f} 와 따라서 M 이 스칼라보다 행렬이라면 이는 일반적으로 명시적인 해결책을 인정하지 않는 문제다.
그런 다음 선형 정지 위상/스티븐 강하 방법의 라인을 따라 무증상 평가가 가능하다. 그 아이디어는 주어진 리만-힐버트 문제의 해결책을 더 단순하고 명백하게 해결할 수 있는 리만-힐버트 문제의 해결책으로 점증적으로 축소하는 것이다. 코치의 정리는 점프 윤곽의 변형을 정당화하는 데 사용된다.
비선형 정지 단계는 Its의 초기 저작에 기초하여 Deift와 Jough에 의해 1993년에 도입되었다. 캄비시스, K. 맥러플린, P에 의해 (적당하게) 비선형 급강하 방식이 도입되었다. 밀러는 2003년, Lax, Levermore, Deift, Venakides, Zoo의 이전 작품을 바탕으로 하였다. 선형 사례에서와 같이 "스티븐 강하 등고선"은 최소-최대 문제를 해결한다. 비선형적인 경우에서 그것들은 "S-곡선"으로 판명된다(Stahl, Gonchar, Rakhmanov에 의해 80년대에 다른 맥락에서 정의되었다).
비선형 정지 위상/스티븐 강하 방법은 솔리톤 방정식과 통합 가능한 모델 , 무작위 행렬 및 조합 에 적용된다.
라플레이스의 방법 일반화: 중위수 점 근사치 일반화에서 적분 평가는 밀도를 갖는 분포의 규범을 찾는 것과 동등한 것으로 간주된다.
e M f ( x ) . {\displaystyle e^{Mf(x)}} 밀도가 있는 차이점형 가우스 분포가 있는 경우 누적 분포 F ( x ) {\displaystyle F(x)} 을(를)
e − g − γ 2 y 2 {\displaystyle e^{-g-{\frac {\frac {}{2}}y^{2}}}} 표준은 에 의해 주어진다.
2 π γ − 1 e − g {\displaystyle {\sqrt {2\pi \pi \^{-1}e^{-g}} 그리고 그에 상응하는 차이점들은
y ( x ) = 1 γ Φ − 1 ( F ( x ) F ( ∞ ) ) , {\displaystyle y(x)={\frac {1}{\\sqrt {\gamma }}\Phi ^{-1}\좌측({\frac {F(x)}{F(\inflty )}}}}},} 여기서 φ {\displaystyle \Phi } 은(는) 누적 표준 정규 분포 함수를 나타낸다 .
일반적으로 가우스 분포와 다른 분포는 밀도가 있다.
e − g − γ 2 y 2 ( x ) y ′ ( x ) {\displaystyle e^{-g-{\frac {\frac }{2}}y^{2}(x)y'(x)}} 중위수 는 가우스 분포의 중위수에 매핑된다. 주어진 순서에 따라 중앙값 지점의 밀도 함수와 그 파생상품의 로그 값을 일치시키면 γ {\displaystyle \gamma} 과 g {\displaystyle g} 의 대략적인 값을 결정하는 방정식 시스템이 생성된다.
근사치는 D에 의해 2019년에 도입되었다. 마코곤과 C. 모라이스 스미스는 주로 페르미온 상호 작용 시스템에 대한 파티션 함수 평가의 맥락에서 일한다.
복잡한 통합 양식의 복잡한 통합의 경우:
1 2 π i ∫ c − i ∞ c + i ∞ g ( s ) e s t d s {\displaystyle {\frac {1}{2\pi i}\int _{c-i\infit }^{c+i\infit }g(s)e^{st}\,ds} t ≫ 1 , {\displaystyle t\gg 1,} 을 (를) 사용하여 대체 t = iu 를 만들고 변수 s = c + i x {\displaystyle s=c+ix} 을(를) 변경하여 양방향 Laplace 변환:
1 2 π ∫ − ∞ ∞ g ( c + i x ) e − u x e i c u d x . {\displaystyle {1}{2\pi }}\int _{-\inflt }^{-\inflt }g(c+ix)e^{-ux}e^{icu}\,dx.} 그런 다음 g(c + ix )를 실제와 복잡한 부분으로 나누고, 그 후에 u = t /i 를 복구한다. 이것은 역 라플라스 변환 , Perron 공식 및 복잡한 통합에 유용하다.
예제: 스털링의 근사치 라플레이스의 방법은 스털링의 근사치 를 도출하는 데 사용될 수 있다.
N ! ≈ 2 π N N N e − N {\displaystyle N!\ 약 {\sqrt {2\pi N}N^{N}e^{-N}\,} 큰 정수 N 의 경우.
감마 함수 의 정의로 볼 때
N ! = Γ ( N + 1 ) = ∫ 0 ∞ e − x x N d x . {\displaystyle N!=\Gamma(N+1)=\int _{0}^{{0}^{\infit }e^{-x}x^{N}\,dx.} 이제 x = N z {\displaystyle x=Nz} 을 (를) d x = N d z . {\displaystyle dx=Ndz 로 변경한다. } 이 값을 다시 꽂아서 가져오십시오.
N ! = ∫ 0 ∞ e − N z ( N z ) N N d z = N N + 1 ∫ 0 ∞ e − N z z N d z = N N + 1 ∫ 0 ∞ e − N z e N ln z d z = N N + 1 ∫ 0 ∞ e N ( ln z − z ) d z . 디스플레이 스타일 {\displaystyle {\begin{aigned}N! &=\int _{0}^{\infty }e^{-Nz}(Nz)^{N}N\,dz\\&=N^{N+1}\int _{0}^{\infty }e^{-Nz}z^{N}\,dz\\&=N^{N+1}\int _{0}^{\infty }e^{-Nz}e^{N\ln z}\,dz\\&=N^{N+1}\int _{0}^{\infty }e^{N(\ln z-z)}\,dz. \end{정렬}}} 이 적분은 라플레이스의 방법에 필요한 형태를 가지고 있다.
f ( z ) = ln z − z {\displaystyle f(z)=\ln {z}-z} 두 번 반복 가능:
f ′ ( z ) = 1 z − 1 , {\displaystyle f'(z)={\frac {1}{z}-1,} f ″ ( z ) = − 1 z 2 . {\displaystyle f"(z)"=-{\frac {1}{z^{2}}. } f ( z ) {\displaystyle f(z)} 의 최대값 은0 z = 1이며 , f ( z ) {\displaystyle f(z)} 의 두 번째 파생상품은 이 시점에서 -1 값을 갖는다 . 그러므로 우리는 얻는다.
N ! ≈ N N + 1 2 π N e − N = 2 π N N N e − N . {\displaystyle N!\ 관련 N^{N+1}{\sqrt {\frac {2\pi }{N}e^{N}={\sqrt {2\pi N}N^{N}}}}}
참고 항목 메모들
참조 Azevedo-Filho, A.; Shachter, R. (1994), "Laplace's Method Approximations for Probabilistic Inference in Belief Networks with Continuous Variables", in Mantaras, R.; Poole, D. (eds.), Uncertainty in Artificial Intelligence , San Francisco, CA: Morgan Kaufmann , CiteSeerX 10.1.1.91.2064 . Deift, P.; Zhou, X. (1993), "A steepest descent method for oscillatory Riemann–Hilbert problems. Asymptotics for the MKdV equation", Ann. of Math. , vol. 137, no. 2, pp. 295–368, arXiv :math/9201261 , doi :10.2307/2946540 , JSTOR 2946540 . Erdelyi, A. (1956), Asymptotic Expansions , Dover . Fog, A. (2008), "Calculation Methods for Wallenius' Noncentral Hypergeometric Distribution", Communications in Statistics, Simulation and Computation , vol. 37, no. 2, pp. 258–273, doi :10.1080/03610910701790269 . Laplace, P S (1774), "Mémoires de Mathématique et de Physique, Tome Sixième" [Memoir on the probability of causes of events.], Statistical Science , 1 (3): 366–367, JSTOR 2245476 Wang, Xiang-Sheng; Wong, Roderick (2007). "Discrete analogues of Laplace's approximation". Asymptot. Anal . 54 (3–4): 165–180. 이 글에는 크리에이티브 커먼스 귀속/ 공유 앨리케 라이센스 에 따라 라이센스가 부여된 PlanetMath 의 새들 포인트 근사치의 자료가 통합되어 있다.