대수오목함수

Logarithmically concave function

볼록 분석에서 이 아닌 함수 f : Rn R+영역볼록 집합인 경우 로그오목(또는 짧게 로그콘케이브)이며, 불평등을 만족하는 경우

모든 x,y f와 0 < θ < 1. f가 엄격히 양성이면, 함수 로그 log f오목하다고 말하는 것과 같다; 즉,

모든 x,y dom 돔 f0 < θ < < 1.

로그 콘케이브 함수의 예로는 볼록 세트(더 유연한 정의를 필요로 함)의 0-1 표시기 함수가우스 함수를 들 수 있다.

마찬가지로 함수는 역불평등을 만족하면 로그 콘벡스다.

모든 x,y dom 돔 f0 < θ < < 1.

특성.

  • 로그 콘케이브 함수도 준콘케이브다. 이는 로그가 단조로움으로 이 함수의 수퍼레벨 집합이 볼록함을 암시한다는 사실에서 비롯된다.[1]
  • 그 영역에서 음성이 아닌 모든 오목함수는 로그 콘케이브다. 그러나, 그 역이 반드시 유지되는 것은 아니다. 일례로 가우스 함수 f(x) = exp(-x2/2)가 있는데, 로그 f(x) = -x2/2x의 오목함수이므로 로그 콘케이브인 가우스 함수 f(-x/2)가 있다. 그러나 두 번째 파생상품은 x > 1에 대해 양성이므로 f는 오목하지 않다.
  • 위의 두 지점부터conc {\ 로그-concavity {\displaystyle \quasiconcavity.
  • 볼록한 영역을 가진 두 번 다르고 음이 아닌 함수는 모든 x 만족 f(x) > 0일 경우에만 로그 콘케이브,
[1]
(는)
음의 반음극 한 변수의 함수에 대해 이 조건은 다음과 같이 단순화된다.

로그 일치성을 보존하는 작업

  • 제품: 로그 콘케이브 기능의 산물도 로그 콘케이브다. 실제로 fg가 로그 콘케이브 함수라면 로그 f로그 g는 정의에 의해 오목하게 된다. 그러므로
오목하며, 따라서 f g도 로그-트레이닝이다.
  • 여백: f(x,y) : Rn+m R이 로그 콘케이브인 경우,
로그 콘케이브(Prékopa-Lindler 불평등 참조)
  • 는 h(x,y) = f(x-y) g(y)log-concave이면 log-concave이기 때문에 convolution이 로그-concavity를 보존한다는 것을 의미한다.
로그에 기록된다.

로그-콘카브 분포

로그-콘카브 분포는 적응 거부 샘플링과 같은 여러 알고리즘에 필요하다. 로그 콘케이브 밀도가 있는 모든 분포는 지정된 평균 μ편차 위험 측정 D를 갖는 최대 엔트로피 확률 분포다.[2] 그것이 일어날 때, 많은 공통 확률 분포는 로그 콘카베이다. 몇 가지 예:[3]

모든 파라미터 제한은 동일한 기본 소스를 가지고 있다는 점에 유의하십시오. 함수가 로그 콘케이브되려면 음수가 아닌 양의 지수가 음수가 되어야 한다.

다음 분포는 모든 모수에 대해 로그가 포함되지 않은 것이다.

모든 로그-컨베어 분포의 누적분포함수(CDF)도 로그-콘베어라는 점에 유의한다. 그러나 일부 비로그 콘케이브 분포에는 다음과 같은 로그 콘케이브 CDF도 있다.

로그-콘카브 분포의 속성은 다음과 같다.

  • 밀도가 로그 콘케이브인 경우 누적분포함수(CDF)도 마찬가지다.
  • 다변량 밀도가 로그-콘카브인 경우 변수의 하위 집합에 대한 한계 밀도도 마찬가지다.
  • 두 개의 독립적인 로그 콘케이브 랜덤 변수의 합은 로그 콘케이브다. 이는 두 가지 로그 콘케이브 기능의 콘볼루션이 로그 콘케이브라는 사실에서 비롯된다.
  • 두 개의 로그 콘케이브 함수의 산물은 로그 콘케이브다. 이는 두 개의 확률 밀도를 곱하여 형성된 관절 밀도(예: 항상 형상 모수 >= 1)가 로그 콘케이브 된다는 것을 의미한다. 이 특성은 BUGS, JAGS와 같은 범용 Gibbs 샘플링 프로그램에 많이 사용되며, 따라서 다른 분포의 제품에서 파생된 다양한 조건부 분포에 대한 적응적 거부 샘플링을 사용할 수 있다.
  • 만약 밀도가 로그 콘케이브라면, 그것의 생존 기능도 마찬가지다.[5]
  • 밀도가 로그 콘카브일 경우 단조 위험률(MHR)을 가지며, 생존함수의 로그의 파생상품이 음의 위험률이며, 구체성에 의한 단조 위험률(Monotone)이므로 정규분포다.
1- ( x)=- ( ) - F( )는 오목함수의 파생형으로 감소하고 있다.

참고 항목

메모들

  1. ^ a b Boyd, Stephen; Vandenberghe, Lieven (2004). "Log-concave and log-convex functions". Convex Optimization. Cambridge University Press. pp. 104–108. ISBN 0-521-83378-7.
  2. ^ Grechuk, B.; Molyboha, A.; Zabarankin, M. (2009). "Maximum Entropy Principle with General Deviation Measures". Mathematics of Operations Research. 34 (2): 445–467. doi:10.1287/moor.1090.0377.
  3. ^ 참조
  4. ^ a b Prékopa, András (1971). "Logarithmic concave measures with application to stochastic programming". Acta Scientiarum Mathematicarum. 32: 301–316.
  5. ^ 참조

참조

  • Barndorff-Nielsen, Ole (1978). Information and exponential families in statistical theory. Wiley Series in Probability and Mathematical Statistics. Chichester: John Wiley \& Sons, Ltd. pp. ix+238 pp. ISBN 0-471-99545-2. MR 0489333.
  • Dharmadhikari, Sudhakar; Joag-Dev, Kumar (1988). Unimodality, convexity, and applications. Probability and Mathematical Statistics. Boston, MA: Academic Press, Inc. pp. xiv+278. ISBN 0-12-214690-5. MR 0954608.
  • Pfanzagl, Johann; with the assistance of R. Hamböker (1994). Parametric Statistical Theory. Walter de Gruyter. ISBN 3-11-013863-8. MR 1291393.
  • Pečarić, Josip E.; Proschan, Frank; Tong, Y. L. (1992). Convex functions, partial orderings, and statistical applications. Mathematics in Science and Engineering. Vol. 187. Boston, MA: Academic Press, Inc. pp. xiv+467 pp. ISBN 0-12-549250-2. MR 1162312.