郭昱良的博客专栏

公众号:机器学习算法与Python学习。。不定期发布人工智能、机器学习、深度学习及Python编程方面的算法与实现,欢迎光大机器学习与数据挖掘领域的朋友加入交流与学习。

0
推荐
1425
阅读

机器学习(24)之Bagging与随机森林

前言在(机器学习(17)之集成学习原理总结)中,我们谈到了集成学习有两个流派,一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。本文就对集成学习中Bagging与随机森林算法做一个总结。随机森林是集成学习中可以和梯度提升树GBD...

发表了文章 • 2017-11-22 16:00 • 0 条评论

0
推荐
2200
阅读

机器学习(23)之GBDT详解

前言在(机器学习(20)之Adaboost算法原理小结)中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有GBT(Gradient Boosting Tree), GTB(Gradient Tree Boosting ), GBRT...

发表了文章 • 2017-11-22 15:50 • 0 条评论

2
推荐
1334
阅读

机器学习(22)之Apriori算法原理总结

前言Apriori算法是常用的用于挖掘出数据关联规则的算法,它用来找出数据值中频繁出现的数据集合,找出这些集合的模式有助于我们做一些决策。比如在常见的超市购物数据集,或者电商的网购数据集中,如果我们找到了频繁出现的数据集,那么对于超市,我们可以优化产品的位置摆放,对于电商,我们可以优化商品所在的仓库位置...

发表了文章 • 2017-11-21 15:33 • 0 条评论

1
推荐
1593
阅读

值得收臧 | 从零开始搭建带GPU加速的深度学习环境(操作系统、驱动和各种机器学习库)

原文:https://medium.com/@dyth/deep-learning-software-installation-guide-d0a263714b2后台回复关键词:20171019 下载PDF整理版教程为了研究强化学习,最近购置了一台基于 Ubuntu 和英伟达 GPU 的深度学习机器。尽管目前在网络中能找到一些环境部署指南,但目前仍然没有全面的安装说明。另外,我也不得不阅读了...

发表了文章 • 2017-11-21 15:20 • 0 条评论

0
推荐
1430
阅读

机器学习(21)之scikit-learn Adaboost类库的实战分析

前言在(机器学习(20)之Adaboost算法原理小结)中,对Adaboost的算法原理做了一个总结。这里从实用的角度对scikit-learn中Adaboost类库的使用做一个小结,重点对调参的注意事项做一个总结。Adaboost类库概述scikit-learn中Adaboost类库比较直接,就是AdaBoostClassifier和AdaBoostRegressor两个,从名字就可以看出AdaBoo...

发表了文章 • 2017-11-21 15:12 • 0 条评论

0
推荐
2459
阅读

机器学习(20)之Adaboost算法原理小结

在(机器学习(17)之集成学习原理总结)中,讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可以用作分类...

发表了文章 • 2017-11-07 14:21 • 0 条评论

1
推荐
2313
阅读

机器学习(19)之支持向量回归机

(机器学习(15)之支持向量机原理(一)线性支持向量机)(机器学习(16)之支持向量机原理(二)软间隔最大化)机器学习(18)之支持向量机原理(三)线性不可分支持向量机与核函数在前三篇里面我们讲到了SVM的线性分类和非线性分类,以及在分类时用到的算法。这些都关注与SVM的分类问题。实际上SVM也可以用于回归模型,本篇就对...

发表了文章 • 2017-11-07 14:15 • 0 条评论

0
推荐
1768
阅读

干货 | 深度学习之DNN的多种正则化方式

前言和普通的机器学习算法一样,DNN也会遇到过拟合的问题,需要考虑泛化,这里对DNN的正则化方法做一个总结。DNN的L1与L2正则化想到正则化,首先想到的就是L1正则化和L2正则化。(L1正则化和L2正则化原理类似,这里重点讲述DNN的L2正则化)而DNN的L2正则化通常的做法是只针对与线性系数矩阵W,而不针对偏倚系数b。假如我...

发表了文章 • 2017-11-07 14:12 • 0 条评论

0
推荐
2107
阅读

机器学习(18)之支持向量机原理(三)线性不可分支持向量机与核函数

在(机器学习(15)之支持向量机原理(一)线性支持向量机)和(机器学习(16)之支持向量机原理(二)软间隔最大化)中我们讲到了线性可分SVM的硬间隔最大化和软间隔最大化的算法,它们对线性可分的数据有很好的处理,但是对完全线性不可分的数据没有办法。本文我们就来探讨SVM如何处理线性不可分的数据,重点讲述核函数在SVM...

发表了文章 • 2017-11-07 14:09 • 0 条评论

0
推荐
1715
阅读

干货 | 深度学习之损失函数与激活函数的选择

前言在深度神经网络(DNN)反向传播算法(BP)中,我们对DNN的前向反向传播算法的使用做了总结。其中使用的损失函数是均方差,而激活函数是Sigmoid。实际上DNN可以使用的损失函数和激活函数不少。这些损失函数和激活函数如何选择呢?以下是本文的内容。MSE损失+Sigmoid激活函数的问题先来看看均方差+Sigmoid的组合有什么问...

发表了文章 • 2017-09-19 13:41 • 0 条评论

0
推荐
1381
阅读

机器学习(17)之集成学习原理总结

前言集成学习(ensemble learning)是现在非常火爆的机器学习方法。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。也就是我们常说的“博采众长”。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都可以看到集成学习的身影...

发表了文章 • 2017-09-19 11:19 • 0 条评论

0
推荐
4564
阅读

干货 | 手把手教你如何使用TensorFlow实现深度强化学习玩转Flappy Bird

以下内容来源于一次部门内部的分享,主要针对AI初学者,介绍包括CNN、Deep Q Network以及TensorFlow平台等内容。由于笔者并非深度学习算法研究者,因此以下更多从应用的角度对整个系统进行介绍,而不会进行详细的公式推导。关于Flappy Bird Flappy Bird(非官方译名:笨鸟先飞)是一款2013年鸟飞类游戏,由越南河内...

发表了文章 • 2017-09-19 10:54 • 0 条评论

0
推荐
1309
阅读

深度学习之DNN与反向传播算法

前言在深度神经网络(DNN)模型与前向传播算法中,我们对DNN的模型和前向传播算法做了总结,这里我们更进一步,对DNN的反向传播算法(Back Propagation,BP)做一个总结。反向传播需要解决的问题在了解DNN的反向传播算法前,我们先要知道DNN反向传播算法要解决的问题,也就是说,什么时候我们需要这个反向传播算法? 回...

发表了文章 • 2017-09-11 16:03 • 0 条评论

0
推荐
1340
阅读

机器学习(16)之支持向量机原理(二)软间隔最大化

前言在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了总结。最后我们提到了有时候不能线性可分的原因是线性数据集里面多了少量的异常点,由于这些异常点导致了数据集不能线性可分,本篇就对线性支持向量机如何处理这些异常点的原理方法做一个总结。线性可分SVM的算法过程输入是线性可...

发表了文章 • 2017-09-11 15:22 • 0 条评论

0
推荐
1469
阅读

机器学习(16)之支持向量机原理(二)软间隔最大化

前言在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了总结。最后我们提到了有时候不能线性可分的原因是线性数据集里面多了少量的异常点,由于这些异常点导致了数据集不能线性可分,本篇就对线性支持向量机如何处理这些异常点的原理方法做一个总结。线性可分SVM的算法过程输入是线性可...

发表了文章 • 2017-09-11 15:22 • 0 条评论