확률 이론에서의 상대적 정보의 측정
상관 변수 X 및
과(와) 관련된 가법 및 감산 관계를 보여주는 Ven 도표
양쪽 원이 포함하는 영역은 관절 H, )
왼쪽(빨간색 및 보라색)에 있는 원은 원이다.vidual Entropy ( )
빨간색은 조건부 엔트로피 H Y 입니다
오른쪽(파란색 및 보라색)의 원은 ) 이고
파란색은 X 입니다
바이올렛은 정보 I (; 입니다
정보이론에서 조건부 엔트로피는 다른 변수 의 값이 알려져 있다는
점에서
임의 변수 Y 의 결과를 기술하는 데 필요한 정보의 양을 정량화한다. 여기서 정보는 셰넌, 나트 또는 하틀리 단위로 측정된다. 에 조건화된
의 엔트로피는 ) X로 기록된다
정의
에
지정된 의 조건부 엔트로피는 다음과 같이 정의된다
.
 | | (Eq.1) |
여기서
및
은(는) 및
의 지원 세트를 나타낸다
참고: 고정 > 에 대한
식 0 0{\ 0 0
0 을(를) 0으로 간주하는
것이 관례다. This is because
and
[1]
Intuitive explanation of the definition : According to the definition,
where
이
( ( ,y ) {\\(y
의 정보
컨텐츠에 되며 는 이벤트를 설명하는 데 필요한 정보의 양Y = )이다
given
. According to the law of large numbers,
is the arithmetic mean of a large number of independent realizations of
.
동기
Let
be the entropy of the discrete random variable
conditioned on the discrete random variable
taking a certain value
. Denote the support sets of
and by
및
{
에
확률 Y( y)
의 무조건 엔트로피는 H( Y) [ ( )
즉.

여기서 ( i) 은
y 값을 사용한
결과의 정보 콘텐츠다
에서
한
의 엔트로피는 조건부 예상에 의해 유사하게 정의된다
.

) { X은는) 이
취할 수
있는 값 x {\에
대해 = )를 평균한 결과라는
점에 유의하십시오. Also, if the above sum is taken over a sample
, the expected value
is known in some domains as equivocation.[2]
이미지 이
(가) 있는 이산 랜덤 변수 및 이미지 Y}이
있는 의 조건부 엔트로피는 의 가중 합으로 된다
p() 을(를) 가중치로 사용하여
의 가능한 각 값에 대해
X[3]: 15

특성.
조건부 엔트로피는 0이다.
의 값이 displaystyle X의 값으로 완전히되는 에만 H )= 0 {\ {H}(Y X)=0
독립 랜덤 변수의 조건부 엔트로피
반대로 Y과
이(가) 독립 랜덤 변수인 경우에만
(displaystyle 을(를) 한다.
체인 룰
Assume that the combined system determined by two random variables
and
has joint entropy
, that is, we need
bits of information on average to describe its exact state. 이제 우리가 X X
의 값을 배운다면, 는 H( X) 비트의
정보를 얻었다. X이(가) 알려지면
전체 시스템의 상태를 설명하려면 , Y)- ) - H( ) 비트만
있으면 된다. 이 수량은 정확히 ( X) 이며
조건부 엔트로피의 체인 규칙을 제공한다.
[3]: 17
체인 규칙은 위의 조건부 엔트로피 정의에서 따른다.
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \left({\frac {p(x)}{p(x,y)}}\right)\\[4pt]&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)(\log(p(x))-\log(p(x,y)))\\[4pt]&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log(p(x,y))+\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}{p(x,y)\log(p(x))}\\[4pt]&=\mathrm {H} (X,Y)+\sum _{x\in {\mathcal {X}}}p(x)\log(p(x))\\[4pt]&=\mathrm {H} (X,Y)-\mathrm {H} (X).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/501bd3a915d2218c4464e1ea8cfefc3fba872320)
일반적으로 다중 랜덤 변수에 대한 체인 규칙은 다음을 유지한다.
[3]: 22
곱셈대신 덧셈을 쓴다는 점을 제외하면 확률론에서 체인룰과 비슷한 형태를 띠고 있다.
베이즈 법칙
조건부 엔트로피 상태에 대한 베이스의 규칙

Proof.
and
. Symmetry entails
두 방정식을 빼는 것은 베이지스의 지배를 내포하고 있다.
이(가)
X 에 조건부로 독립되어 있는
경우
:

기타 속성
모든 및
의 경우

여기서 ( ; Y) 은(는 {\과
) Y {\displaysty 사이의 상호 정보다
독립형 및
의 경우
- )= ) = H(Y ) H
= X(X)\,},},},},},},},},},},},},},},},},}
Although the specific-conditional entropy
can be either less or greater than
for a given random variate
of
,
can never exceEd ( )
.
조건부 미분 엔트로피
정의
위의 정의는 이산 랜덤 변수에 대한 것이다. 이산 조건부 엔트로피의 연속 버전을 조건부 차등(또는 연속) 엔트로피라고 한다. Y
을(를) 접합 확률밀도함수 ( y) 을(를) 가진 연속 랜덤 변수로 설정
차등 조건부 h( ) 는 다음과[3]: 249 같이 정의된다
.
 | | (Eq.2) |
특성.
이산 랜덤 변수에 대한 조건부 엔트로피와 대조적으로 조건부 미분 엔트로피는 음수일 수 있다.
이산형 사례에서와 같이 차동 엔트로피에 대한 체인 규칙이 있다.
[3]: 253
그러나 관련된 차동 엔트로피가 존재하지 않거나 무한인 경우에는 이 규칙이 적용되지 않을 수 있다는 점에 유의하십시오.
또한 연속 랜덤 변수 간의 상호 정보의 정의에는 공동 미분 엔트로피가 사용된다.

( ) h () ≤ ( X ) hX Y h이(가 X {\과Y {\displaysty 이
() 독립적인
경우에만 동일함
.[3]: 253
추정기 오류와의 관계
조건부 차동 엔트로피는 추정기의 예상 제곱 오차에 대해 하한을 산출한다. 임의의 변수X {\
, Y {\Y
} 및 X {\ {\X}}에 대해서는 다음이
유지된다.[3]: 255
![{\displaystyle \mathbb {E} \left[{\bigl (}X-{\widehat {X}}{(Y)}{\bigr )}^{2}\right]\geq {\frac {1}{2\pi e}}e^{2h(X|Y)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab916a1ac9b14193bf90b79742772b686bb771c3)
이것은 양자역학의 불확실성 원리와 관련이 있다.
양자 이론으로의 일반화
양자정보이론에서 조건부 엔트로피는 조건부 양자 엔트로피로 일반화된다. 후자는 고전적인 상대와 달리 부정적인 가치를 가질 수 있다.
참고 항목
참조