1
推荐
1976
阅读

深度学习笔记2:手写一个单隐层的神经网络

    笔记1中我们利用 numpy 搭建了神经网络最简单的结构单元:感知机。笔记2将继续学习如何手动搭建神经网络。我们将学习如何利用 numpy 搭建一个含单隐层的神经网络。单隐层顾名思义,即仅含一个隐藏层的神经网络,抑或是成为两层网络。    继续回顾一下搭建一个神...

发表了文章 • 2018-07-03 16:21 • 0 条评论

0
推荐
1793
阅读

深度学习笔记1:利用numpy从零搭建一个神经网络

很多人说深度学习就是个黑箱子,把图像预处理之后丢进 tensorflow 就能出来预测结果,简单有效又省时省力。但正如我在上一篇推送中所说,如果你已是一名功力纯厚的深度学习工程师,这么做当然没问题。但我想大多数人也和我一样,都是走在学习深度学习的路上,一上来就上框架并没有什么特别不妥之处,但总归是对你理解深...

发表了文章 • 2018-07-02 17:07 • 0 条评论

0
推荐
2093
阅读

谈谈过拟合

在尚未接触机器学习之前,笔者在学习统计学中的回归分析的时候,曾经对R2这个指标盲目迷信,总是前方百计的想提R2的值,想必学统计出身的诸位必然也有此经历。后来历经艰辛,明白真实世界所拿到的数据不可能有教材给你的那么完美,数据的拟合程度若有五六十则是比较好的情况,二三十的情形则再常见不过。 前段时间...

发表了文章 • 2018-02-26 13:47 • 0 条评论

1
推荐
5633
阅读

利用scikit-learn进行机器学习:特征工程(二)特征选择

特征选择 1 概述 2 特征选择之Filter   2.1 方差选择法   2.2 卡方检验法   2.3 互信息法 3 特征选择之Wrapper   3.1 递归式特征消除法 4 特征选择之Embedded   4.1 基于惩罚项的特征选择法   4.2 基于树模型的特征选择法1 概述 ...

发表了文章 • 2018-01-18 10:28 • 0 条评论

2
推荐
2611
阅读

利用scikit-learn进行机器学习:特征工程(一)数据预处理

   对于机器学习,业内早有这样的说法:“数据和特征决定了你机器学习模型效果的上限,而模型和算法只是逐渐逼近这个上限而已。”小编不才,在机器学习方面只尝试过一些简单的数据建模过程,但对这种观点深以为然。在全球数据科学顶级比赛kaggle里面,特征工程往往被众多资深kaggler们所重视,一言以敝之,机器...

发表了文章 • 2018-01-03 14:41 • 0 条评论

0
推荐
4520
阅读

【机器学习】决策树总结|ID3 C4.5/C5.0 CHAID CART与QUEST

目录● 概要● 决策树模型     ● 特征选择     ● 决策树学习     ● 决策树剪枝● 决策树算法     ● ID3     ● C4.5/C5.0     ● CHAID     ● CART     ● QUEST概要决策树作为一种基本的分类与回归方法(更多时候指分类),是学习数据...

发表了文章 • 2017-07-18 14:57 • 0 条评论

0
推荐
2523
阅读

kaggle:谁是NBA最佳防守球员?(二)

接着前几天发的关于kaggle中NBA球员投篮数据探索性数据分析和可视化分析之后,小编本打算对这13万的投篮数据跑几个机器学习模型预测一下投篮的,可是电脑内存不给力,试了几次之后便作罢了。还打算第一次试一下kaggle上被传的神乎其技的大杀器xgboost的呢。机器学习的模型都写好了,有图为证:于是便转而去做特征构造,...

发表了文章 • 2017-07-05 11:20 • 0 条评论

0
推荐
1826
阅读

如何像一个机器学习老司机一样跟别人解释SVM算法?

    接着前面朴素贝叶斯、贝叶斯网络和神经网络算法之后,笔者继续往后学习了其他分类算法,本期给大家介绍声名斐然的SVM,也就是支持向量机(Support Vector Machines)算法。不过说实话,这东西确实不好弄懂,更不好跟大伙解释清楚,所以写起来更不容易。在断断续续硬啃了几天理论和公式之后,就去CSDN...

发表了文章 • 2017-06-19 10:50 • 0 条评论

1
推荐
4046
阅读

朴素贝叶斯和贝叶斯网络算法及其R语言实现

 最近在硬怼data mining,总算把几个月前说好的正面刚算法的计划给开了个头。毕竟在小编的计划中将来是打算偏机器学习的,不懂算法实现肯定是转型无望了。既然小编是做贝叶斯方向的,所以数据挖掘算法这块就先从贝叶斯分类器开始,原本以为花不了多少时间,可这两年终归是离扎实的数学计算训练太远了,就算是正面刚...

发表了文章 • 2017-06-16 14:32 • 0 条评论