이 포스트는 정보 이론( 정보의 전송, 처리 및 저장을 연구하는 수학 분야)이 측정 이론 (통합 및 확률 과 관련된 수학 분야)의 연관성을 보여주는 문서이다.
정보 이론의 측정
정보 이론의 많은 개념은 연속 사례와 이산 사례에 대해 별도의 정의와 공식을 가진다. 예를 들어 엔트로피 일반적으로 이산 확률 변수에 대해 정의되는 반면, 연속 확률 변수에 대해서는 미분 엔트로피 관련 개념이 작성되어 가 사용된다(Cover and Thomas, 2006, 8장 참조). 이 두 개념은 모두 수학적 기대값 이지만 기대값은 연속적인 경우에는 적분으로 이산적인 경우에는 합으로 정의된다.
이러한 별도의 정의는 측정 이론 측면에서 더 밀접하게 관련될 수 있다. 이산확률변수의 경우 확률 질량 함수는 계수 측도와 관련하여 밀도 함수로 간주될 수 있다. 적분과 합을 모두 척도 공간의 적분으로 생각하면 통일된 처리가 가능하다.
그렇다면, 이산적이며 범위가 있음으로 정의되고 유한 집합, 에 대한 확률 질량 함수인 것을 알수 있다. 그러면 , 그리고 에 대한 계산 조치로서 우리는 를 쓸 수 있다.
적분 표현과 일반적인 개념은 연속적인 경우에 동일하다. 여기서 유일한 차이점은 사용된 측정값이다. 두 경우 모두 확률 밀도 함수 적분을 취하는 측정값에 대한 확률 측정 값의 라돈-니코딤 파생값이다.
에 의해 유도된 확률 측정값은 다음과 같다. , 그러면 적분은 다음과 관련하여 직접 취해질 수도 있다. :
기본 측정값 μ 대신에 다른 확률 측정값 을 사용하면, Kullback-Leibler 발산으로 이어진다. 그렇게 되면 그리고 의 동일한 공간에 대한 확률 측정값이 된다. 그렇다면 에 대해 절대적으로 연속적이며 , 라돈-니코딤 유도체 가 존재하며 Kullback-Leibler 발산은 완전한 일반성으로 표현될 수 있다.
여기서 적분은 다음 의 지원을 초과한다. 음수 부호삭제 : Kullback–Leibler 발산은 Gibbs 부등식으로 인해 항상 음수가 아니다.
"측정"으로서의 엔트로피
무작위 변수의 정보 내용에 대한 Shannon 의 기본 " 측정값 "과 집합에 대한 측정 값 사이에는 유사점이 있다. 즉, 결합 엔트로피, 조건부 엔트로피, 상호 정보는 각각 집합 합집합, 차이 집합, 교차 집합의 척도로 간주될 수 있다(Reza pp. 106~108).
추상 집합 의 존재를 연관시키면 그리고 임의의 이산확률 변수X 및 Y 에 대해 다음과 같이 각각 X 및 Y 가 전달하는 정보를 나타낸다.
여기서 실제 확률의 측정값(로그의 기대값)을 "엔트로피"라고 하며 일반적으로 문자 H 로 표시하는 반면, 다른 측정값은 종종 "정보" 또는 "상관"이라고 하며 일반적으로 문자 I 로 표시한다. 표기의 단순화를 위해 때때로 모든 측정값에 문자 I가 사용되기도 한다.
다변량 상호 정보
세 개 이상의 임의의 확률 변수와 관련된 집합에 의해 생성된 σ-대수를 처리하려면 Shannon의 기본 정보 측정 정의에 대한 특정 확장이 필요하다. (레자 페이지 참조 바람, 또한 비공식적이지만 완전한 토론을 위해서는 106–108을 참조하길 바람) 즉 결합 분포의 엔트로피와 다변량 상호 정보로 명확한 방식으로 정의해야 한다. 그렇다면 는 다음을 설정할 수 있도록 적절한 방식으로 정의된다.
전체 σ-대수에 대한 (부호화된) 측정값을 정의하기 위해. 다변량 상호 정보에 대해 보편적으로 받아들여지는 단일 정의는 없지만 여기에서 집합 교차의 척도에 해당하는 정의는 Fano(1966: p. 57-59)에 의한 것이다. 여기서 정의는 재귀적이며, 기본 사례로 단일 확률 변수의 상호 정보는 엔트로피로 정의된다. . 그럼 우리는 설정할 수 있다.
여기서 조건부 상호 정보는 다음과 같이 정의된다.
재귀의 첫 번째 단계는 Shannon의 정의를 산출한다. 3개 이상의 무작위 변수에 대한 다변량 상호 정보( 상호작용 정보 와 동일하지만 부호 변경에 대한)는 음수일 수도 있고 양수일 수도 있다.그 후 X 와 Y를 두 개의 독립적인 공정한 동전 던지기라고 하고 Z 를 배타적 논리합으로 둔다.
이렇게 되면 세 개 이상의 확률 변수에 대해 다른 많은 변형이 가능하다. 예를 들어, 는 Z 에 대한 X 와 Y 의 공동 분포에 대한 상호 정보이며 다음과 같이 해석될 수 있다. 실제로, 이런 식으로 더 많은 복잡한 표현을 만들 수 있으며 그 의미는 유지된다. 또는
참고자료
토마스 M. 커버와 조이 A. 토마스. 정보 이론의 요소, 제2판, 2006. 뉴저지: Wiley and Sons. .