상호정보량. InformationTheory에서 개별 정보량과 구분되는것. MutualInformation is the communication rate in the presence of noise. ai와 bi의 결합확률로 평균한 것을 입력알파벳 A와 출력알파벳 B의 MutualInformation이라고 부르고, I(A;B)라고 쓴다. {{{#!latex $$ I(A;B) = H(A)-H(A|B) = \sum_{i=1}^r \sum_{j=1}^s P(a_i, b_j) \log_2 \frac{P(a_i, b_j)}{P(a_i)P(b_j)} $$ }}} <
> {{{#!latex $$ I(A;B) = H(B)-H(B|A) = H(A) + H(B) - H(A,B) $$ }}} 상호정보량의 의미는 B를 앎으로써, A를 표현하는 데 필요한 비트수가 몇 비트 절약될 수 있는가를 나타내고 있다. 일반적으로 A와 B에 공통으로 포함된 정보량이라고 표현할 수 있다.