KL散度(KL divergence)
KL散度:也称相对熵,信息散度
KL散度是两个概率分布P和Q差别的非对称性的度量。P表示数据的真实分布,Q表示模型分布(理论分布),是P的近似分布。
对于离散随机变量:
DKL(P∣∣Q)=i∑P(i)lnQ(i)P(i)
DKL(P∣∣Q)≠DKL(Q∣∣P)
DKL(P∣∣Q)⩾0
KL散度不具有对称性
自信息(self information)
自信息是与概率空间中单一事件或离散随机变量的值相关的信息量的量度
自信息只与事件发生的几率相关,事件发生几率越低, 事件发生时,接收到的信息中,自信息越大。
自信息:I(wn)=−log(wn)
一个事件包含的信息量等于它包含的独立事件的信息量之和,平均的自信息值记为信息熵。
自信息与KL散度:
I(m)=DKL(δim∣∣pi)
互信息(Mutual Information)
互信息:描述变量之间的相互依赖性的量度。
两个离散随机变量X Y 互信息定义为:
I(X,Y)=y∈Y∑x∈X∑p(x,y)log(p(x)p(y)p(x,y))
I(X,Y)=H(X)−H(X∣Y)=H(Y)−H(Y∣X)=H(X)+H(Y)−H(X,Y)=H(X,Y)−H(X∣Y)−H(Y∣X)
互信息与KL散度:
I(X,Y)=DKL(p(x,y)∣∣p(x)p(y))=EYDKL(p(x∣y)∣∣p(x))
交叉熵 (cross entropy)
交叉熵与KL散度:
H(p,q)=Ep[−logq]=H(p)+DKL(p∣∣q)
条件熵 (conditional entropy)
H(Y∣X)=−x∈X,y∈Y∑p(x,y)logp(x)p(x,y)
对称性
条件熵与KL散度:
H(X∣Y)=logN−DKL(P(X,Y)∣∣P(X)P(Y))−DKL(P(X)∣∣PU(X))=logN−EYDKL(P(X∣Y)∣∣PU(X))