Python 与 机器学习

个人博客:www.carefree0910.com Python · 数学 · 机器学习

3
推荐
1434
阅读

Python · numpy · axis

观众老爷们大家好!最近实在太忙,回首一看上篇专栏文章已经是 4 个月前的事了,所以今天想着写出一篇来撑撑场子(喂但感觉已经没有当初写专栏的感觉了,所以可能画风会变不少,观众老爷们还望不要介意(逃这次想和大家分享的是 numpy 中的 axis 这个东西。当初学的时候也没太在意,向来都是感觉差不多就直接过去了,没...

发表了文章 • 2017-11-29 16:38 • 0 条评论

5
推荐
2739
阅读

神经网络:NN 入门

(这里是本章会用到的 Jupyter Notebook 地址)将感知机应用于多分类任务我们之前在 支持向量机:感知机 里面介绍感知机时,用的是这么一个公式:,然后样本中的要求只能取。这在二分类任务时当然没问题,但是到多分类时就会有些问题。虽说我们是可以用各种方法让二分类模型去做多分类任务的,不过那些方法普遍都比较麻...

发表了文章 • 2017-07-11 17:31 • 5 条评论

6
推荐
3153
阅读

支持向量机:SMO 算法

(这里是本章会用到的 GitHub 地址)(这篇东西我真是觉得又臭又长 ┑( ̄Д  ̄)┍)SMO 算法概述SMO 是由 Platt 在 1998 年提出的、针对软间隔最大化 SVM 对偶问题求解的一个算法,其基本思想很简单:在每一步优化中,挑选出诸多参数()中的两个参数(、)作为“真正的参数”,其余参数都视为常数,从而问题就变成...

发表了文章 • 2017-07-04 12:08 • 2 条评论

3
推荐
2568
阅读

支持向量机:核方法

(这里是本章会用到的 Jupyter Notebook 地址)(考试周写专栏真有种忙里偷闲的感觉 _(:з」∠)_)关于核方法的比较严谨的叙述,个人建议观众老爷们可以看看这个问题下面的前几个回答;在这里的话,我们就还是只注重直观和应用层面什么是核方法?往简单里说,核方法是将一个低维的线性不可分的数据映射到一个高...

发表了文章 • 2017-06-18 13:07 • 0 条评论

6
推荐
2292
阅读

支持向量机:LinearSVM

(这里是本章会用到的 Jupyter Notebook 地址)很多人(包括我)第一次听说 SVM 时都觉得它是个非常厉害的东西,但其实 SVM 本身“只是”一个线性模型。只有在应用了核方法后,SVM 才会“升级”成为一个非线性模型不过由于普遍说起 SVM 时我们都默认它带核方法,所以我们还是随大流、称 SVM 的原始版本为 Lin...

发表了文章 • 2017-06-09 10:12 • 2 条评论

2
推荐
2386
阅读

支持向量机:感知机

(这里是本章会用到的 Jupyter Notebook 地址)感知机是个相当简单的模型,但它既可以发展成支持向量机(通过简单地修改一下损失函数)、又可以发展成神经网络(通过简单地堆叠),所以它也拥有一定的地位为方便,我们统一讨论二分类问题,并将两个类别的样本分别称为正、负样本感知机能做什么?感知机能(且...

发表了文章 • 2017-06-03 11:12 • 2 条评论

2
推荐
3166
阅读

Python:numba 的基本应用

(这里和这里是本章会用到的 Jupyter Notebook 的地址)我们都知道 Python 比较慢,但很多时候我们都不知道为什么。虽然我用 Python 也有那么两年左右了,但也只能模模糊糊地感受到这么两点:* Python 太动态了* 如果能事先编译一下 Python,让它静态一点,速度应该就会上来于是我们就有了 cython。然而 cytho...

发表了文章 • 2017-05-28 14:45 • 0 条评论

0
推荐
2148
阅读

Tensorflow:LinearSVM(二)

上一篇文章曾经提过,Tensorflow 模型的一个共性就是需要定义 Placeholder 以固定住静态的 Graph、避免由于不断重复向 Graph 中写入相同的运算规则而使速度越来越慢。为此,我们完全可以定义出一个基类来处理 Tensorflow 模型的共性。首先看结构:# 继承普通的分类器基类 ClassifierBase 以复用代码 class TFClassifier...

发表了文章 • 2017-05-26 09:16 • 0 条评论

1
推荐
2063
阅读

Tensorflow:LinearSVM(一)

(这里是最终成品的 GitHub 地址)本文拟通过使用 Tensorflow 实现一个朴素的线性支持向量机(LinearSVM)的形式来作为 Tensorflow 的“应用式入门教程”。虽说用 mnist 做入门教程项目几乎是约定俗成的事了,但总感觉照搬这么个东西过来当专栏有些水……所以还是自己亲手写了个 LinearSVM ( σ'ω')σ在实现之前,先...

发表了文章 • 2017-05-22 00:26 • 0 条评论

3
推荐
2514
阅读

神经网络:前向传导算法

时至今日,在各个编程语言的世界里、神经网络的成熟的库都可谓不在少数;这可能就导致有许多人虽然能够熟练应用神经网络、但对于其内部机制却不甚了解。事实上就我个人所展开的简单调查来看,有不少平时经常用到神经网络的程序员其实对神经网络的数学部分有一种“望而生畏”的感觉、其中各种梯度的计算更是让他们发出“眼花...

发表了文章 • 2017-05-20 10:11 • 2 条评论

3
推荐
1666
阅读

绪论:机器学习综述

“机器学习”在最近虽可能不至于到人尽皆知的程度、却也是非常火热的词汇。机器学习是英文单词“Machine Learning”(简称ML)的直译,从字面上便说明了这门技术是让机器进行“学习”的技术。然而我们知道机器终究是死的,所谓的“学习”归根结底亦只是人类“赋予”机器的一系列运算。这个“赋予”的过程可以有很多种实现,而 Python...

发表了文章 • 2017-05-18 09:42 • 0 条评论

0
推荐
2509
阅读

卷积神经网络:从 NN 到 CNN

CNN 和朴素的 NN 没有任何区别(当然,引入了特殊结构的、复杂的 CNN 会和 NN 有着比较大的区别)。本文主要会说一下 CNN 的思想以及它到底在 NN 的基础上做了哪些改进,同时也会说一下 CNN 能够解决的任务类型“视野”的共享CNN 的主要思想可以概括为如下两点:局部连接(Sparse Connectivity)权值共享(Shared Weights...

发表了文章 • 2017-05-17 17:03 • 0 条评论

2
推荐
2535
阅读

卷积神经网络:利用 Tensorflow 重写 NN

本文将会使用 Tensorflow 框架来重写我们上个系列中实现过的 NN、观众老爷们可能会需要知道 Tensorflow 的基本知识之后才能比较顺畅地阅读接下来的内容;如果对 Tensorflow 基本不了解的话、可以先参见我写的一篇 Tensorflow 的应用式入门教程重写 Layer 结构使用 Tensorflow 来重写 NN 的流程和上个系列中我们介绍...

发表了文章 • 2017-05-17 16:56 • 2 条评论

0
推荐
2109
阅读

卷积神经网络:将 NN 扩展为 CNN

往简单里说、CNN 只是多了卷积层、池化层和 FC 的 NN 而已,虽然卷积、池化对应的前向传导算法和反向传播算法的高效实现都很不平凡,但得益于 Tensorflow 的强大、我们可以在仅仅知道它们思想的前提下进行相应的实现,因为 Tensorflow 能够帮我们处理所有数学与技术上的细节实现卷积层回忆我们说过的卷积层和普通层的性...

发表了文章 • 2017-05-17 16:48 • 0 条评论

0
推荐
1750
阅读

朴素贝叶斯:综述

朴素贝叶斯(Naive Bayes)是贝叶斯分类器的一种,而后者是一个相当宽泛的定义,它背后的数学理论根基是相当出名的贝叶斯决策论(Bayesian Decision Theory)。贝叶斯决策论和传统的统计学理论有着区别,其中最不可调和的就是它们各自关于概率的定义。因此,使用了贝叶斯决策论作为基石的贝叶斯分类器,在各个机器学习算...

发表了文章 • 2017-05-17 11:32 • 0 条评论