1
推荐
1454
阅读

机器学习之Logistic回归(五)

主要内容Sigmoid函数和Logistoc回归分类器最优化理论初步梯度下降最优化算法数据中的缺失项处理我们将介绍最优化算法,并利用他们训练出一个非线性函数用于分类。利用Logistic回归的主要思想是:根据现有的数据对分类边界线建立回归公式,以此进行分类。“回归”一词源于最佳拟合,表示要找到最佳拟合参数,使用的是最优化...

发表了文章 • 2017-08-22 16:27 • 0 条评论

0
推荐
1318
阅读

机器学习之朴素贝叶斯:基于概论论的分类方法(四)

主要内容:使用概率分布进行分类学习朴素贝叶斯分类器解析RSS源数据使用朴素贝叶斯来分析不同地区的态度概率论是机器学习算法的基础,所以深刻理解概率论这个主题就十分重要。4.1 基于贝叶斯决策理论的分类方法朴素贝叶斯优点:在数据较少的情况下仍然有效,可以处理多类问题。缺点:对于输入的数据的准备方式较为敏感。...

发表了文章 • 2017-08-22 16:19 • 0 条评论

0
推荐
1509
阅读

机器学习实战之决策树(三)

正方形代表判断模块(decision block) ,椭圆代表终止模块(terminating block),表示已经得到结论,可以终止运动。决策树的优势在于数据形式容易理解。决策树的很多任务都是为了数据中所蕴含的知识信息。决策树可以使用不熟悉的数据集合,并从中提取出一系列规则,机器学习算法最终将使用这些机器从数据集中创造的规则...

发表了文章 • 2017-07-07 10:53 • 0 条评论

3
推荐
1597
阅读

机器学习实战之K-近邻算法(二)

本章内容:K-近邻分类算法从文本文件中解析和导入数据使用matplotlib创建扩散图归一化数值2-1 K-近邻算法概述简单的说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。K-近邻算法优点:精度高、对异常值不敏感、无数据输入假定缺点:计算复杂度高、空间复杂度高适用数据范围:数值型和标称型K-近邻算法(KNN),...

发表了文章 • 2017-06-09 13:16 • 0 条评论