浅析互信息与特征选择

浏览: 1877


特征选择有很多方法,其中一种是基于互信息的。

那么什么是互信息呢?变量x与变量y之间的互信息,可以用来衡量已知变量x时变量y的不确定性减少的程度,同样的,也可以衡量已知变量y时变量x的不确定性减少的程度。

互信息是基于熵而得到的。什么是熵呢?一个随机变量的熵是用来衡量它的不确定性的。比如,对于变量y,熵的计算公式如下

Clipboard Image.png

当变量y是离散变量时,则累加即可,而当变量y是连续变量时,则需要通过积分方法来计算。其实,熵可以解释为表示变量y所需二进制位的平均值。

假设离散变量y的取值空间为Ω = {0,1},并且 P [y=1] = p, P [Y=0] = 1-p,则熵随p的变化曲线如下:


其中

Clipboard Image.png

容易看出,两件事发生的概率相等时,变量y的不确定性最大。

接下来看看条件熵。条件熵 H(y |x ) 用来衡量变量x给定时,变量y的不确定性。公式如下:

H(y | x) = H(y, x) − H(x)

如果变量y和变量x是相互独立的,即 H(y | x) = H(y)。 这种情况下,不论变量x是否已知,变量y的不确定性都一样。

既然已经了解了熵,下面来看下互信息。变量x和y之间的互信息即为:

I(y;x) = H(y) − H(y | x) = H(x) − H(x | y)

它是两个熵之间的差,即变量y的熵减去给定变量x时变量y的熵。互信息具有以下特性:

1. 如果x和y是相互独立的,则 I(y;x) = 0;

2. I(y;y) = H(y);

3. 互信息I(y;x)通常是非负的,并且小于 min(H(y), H(x))。

互信息可以识别出变量之间的非线性关系。比如变量x, y ,z满足以下条件时:

1 变量 x 服从均匀分布  [-1 1] 2 变量 y = x^2 + noise 3 变量 z 服从均匀分布 [-1 1]

4 变量 z 和 变量 x 相互独立。


互信息和相关系数的计算结果如下:


其中Correlation是相关系数。

注意到互信息公式是

I(x,y) = H(y) − H(y | x) = H(x) − H(x | y)

其中的x和y有可能是向量。针对这种情形如何计算互信息呢?首先来看几个概念。

关联度


上述定义给出了,给定x1时,x2相对y的关联度即为条件互信息。

冗余度


上述定义给出了两个变量互相冗余的定义。


上面定义给出了强相关的定义。强相关意味着这个变量在最优特征子集中通常是必须有的。


上面定义给出了弱相关的定义。弱相关性表明该特征不一定是必须的,但是在某些条件下可能是必须的。

如果某个特征既不是弱相关,又不是强相关,则该特征是没有必要的。

Clipboard Image.png

可以得到

Clipboard Image.png

进而可以得到

Clipboard Image.png

如果上面的交互项是正的,则这两个变量是互补的。如果变量是相互冗余的,则交互项是负值。

说了这么多,互信息跟特征选择到底什么关系呢?给定输出目标 y 和输入变量集合 X = {x1, . . . , xn} ,选择最佳的特征子集可以描述为下述优化问题:

Clipboard Image.png

上述问题可以用增量法来解决。即首先令 X = {xi}, i = 1, . . . , n,并且 XS 是当前已选变量构成的集合。添加变量 x∗ ∈ S − X 的过程可以有下面方法解决

Clipboard Image.png

这是一个最大依赖性(maximal dependency)问题,需要估计多变量的互信息。

最后介绍一种常用基于互信息的特征选择方法,即为mRMR(mimimum-Redundancy Maximum-Relevancy),最小冗余最大相关法,这种方法对应的特征选择策略利用

Clipboard Image.png

来近似下式

Clipboard Image.png

参考资料:

1. http://www.ulb.ac.be/di/map/gbonte/bioinfo/course4.pdf

2. http://www.cost-ic0702.org/summercourse/files/feature_selection.pdf

3. Peng, Hanchuan, Fuhui Long, and Chris Ding. "Feature selection based on mutual information criteria of max-dependency, max-relevance, and min-redundancy." IEEE Transactions on pattern analysis and machine intelligence 27.8 (2005): 1226-1238.

4. Zaffalon, Marco, and Marcus Hutter. "Robust feature selection by mutual information distributions." Proceedings of the Eighteenth conference on Uncertainty in artificial intelligence. Morgan Kaufmann Publishers Inc., 2002.

5. Guo, Baofeng, and Mark S. Nixon. "Gait feature subset selection by mutual information." IEEE Transactions on Systems, Man, and Cybernetics-Part A: Systems and Humans 39.1 (2009): 36-46.

推荐 0
本文由 深度学习 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

1 个评论

1

要回复文章请先登录注册