机器学习笔记1

浏览: 1097

高斯分布属于指数分布族,线性最小二乘就是基于高斯分布。

线性最小二乘——最大似然——最小二乘。

高斯判别分析(GDA)针对的是特征向量 x 为连续值时的问题,而朴素贝叶斯(NB)针对的是特征向量 x 为离散值时的问题。

GDA 比 Logistic 回归有更严格的前置假设。当数据服从或大致服从正态分布时,使用 GDA 会达到更好的效果,因为 GDA 利用了更多的信息构建模型。但当数据不服从正态分布时,那么 Logistic 回归更有效,因为它作出更少的假设,构建的模型更加健壮,更加具有鲁棒性。生成学习还有另外一个好处,就是可以使用比判别学习模型更少的数据构建出强壮的模型。

虽然朴素贝叶斯假设是一个极强的假设,但算法在许多问题上依然运行很好。

推荐 0
本文由 疯狂的拖鞋 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册