0
推荐
3002
阅读

推荐系统遇上深度学习(三十)--深度矩阵分解模型理论及实践

本篇为推荐系统遇上深度学习系列的第30篇文章,也是2019年以来的第一篇文章,2019年希望该系列能够到50篇!加油!本文提出了一种基于神经网络结构的矩阵分解模型。该模型综合考虑了用户对物品的显式评分和非偏好隐式反馈,然后通过两组神经网络将用户和物品的特征提取到一个低维空间;并通过设计的新的损失函数进行反向...

发表了文章 • 2019-02-15 14:42 • 1 条评论

1
推荐
2481
阅读

Categorical DQN-一种建模价值分布的深度强化学习方法!

之前介绍的DQN及其各种变体,网络输出的都是状态-动作价值Q的期望预估值。而本文将介绍的Categorical DQN,它建模的是状态-动作价值Q的分布。这样的估计方法使得估计结果更加细致可信。本文的论文名称为《A Distributional Perspective on Reinforcement Learning》,地址为:https://arxiv.org/abs/1707.06887。不过论...

发表了文章 • 2018-12-21 15:49 • 0 条评论

0
推荐
2610
阅读

增强模型的探索能力-强化学习NoisyNet原理及实现!

增加Agent的探索能力是强化学习中经常遇到的问题,一种常用的方法是采用e-greedy的策略,即以e的概率采取随机的动作,以1-e的概率采取当前获得价值最大的动作。本文我们将介绍另一种方法:NoisyNet,该方法通过对参数增加噪声来增加模型的探索能力。1、NoisyNet的原理我们的噪声通常添加在全连接层,考虑我们全连接层的...

发表了文章 • 2018-12-18 21:28 • 0 条评论

0
推荐
1978
阅读

强化学习反馈稀疏问题-HindSight Experience Replay原理及实现!

在强化学习中,反馈稀疏是一个比较常见同时令人头疼的问题。因为我们大部分情况下都无法得到有效的反馈,模型难以得到有效的学习。为了解决反馈稀疏的问题,一种常用的做法是为Agent增加一些内在的目标使反馈变的不再稀疏。本文将介绍一种修改目标,使有效回报数量变多的方法。该方法称为Hindsight Experience Replay,...

发表了文章 • 2018-12-17 17:15 • 0 条评论

1
推荐
3840
阅读

一步步解析Attention is All You Need!

本文将通过细节剖析以及代码相结合的方式,来一步步解析Attention is all you need这篇文章。这篇文章的下载地址为:https://arxiv.org/abs/1706.03762本文的部分图片来自文章:https://mp.weixin.qq.com/s/RLxWevVWHXgX-UcoxDS70w,写的非常好!本文边讲细节边配合代码实战,代码地址为:https://github.com/princewen/...

发表了文章 • 2018-12-11 10:27 • 0 条评论

0
推荐
7662
阅读

Proximal Policy Optimization(PPO)算法原理及实现!

这两天看了一下李宏毅老师的强化学习课程的前两讲,主要介绍了Policy Gradient算法和Proximal Policy Optimization算法,在此整理总结一下。视频地址:https://www.bilibili.com/video/av24724071/?p=41、PG算法回顾在PG算法中,我们的Agent又被称为Actor,Actor对于一个特定的任务,都有自己的一个策略π,策略π通常用一...

发表了文章 • 2018-11-27 21:29 • 0 条评论

1
推荐
3309
阅读

推荐系统遇上深度学习(二十八)--知识图谱与推荐系统结合之MKR模型原理及实现

知识图谱特征学习在推荐系统中的应用步骤大致有以下三种方式:依次训练的方法主要有:Deep Knowledge-aware Network(DKN)联合训练的方法主要有:Ripple Network交替训练主要采用multi-task的思路,主要方法有:Multi-task Learning for KG enhanced Recommendation (MKR)本文先来介绍交替训练的方法MKR。网上没有找到相...

发表了文章 • 2018-11-19 20:06 • 0 条评论

1
推荐
3245
阅读

推荐系统遇上深度学习(二十七)--知识图谱与推荐系统结合之RippleNet模型原理及实现

知识图谱特征学习在推荐系统中的应用步骤大致有以下三种方式:依次训练的方法主要有:Deep Knowledge-aware Network(DKN)联合训练的方法主要有:Ripple Network交替训练主要采用multi-task的思路,主要方法有:Multi-task Learning for KG enhanced Recommendation (MKR)本文先来介绍联合训练的方法Ripple Network。论文...

发表了文章 • 2018-11-12 13:44 • 0 条评论

0
推荐
3686
阅读

推荐系统遇上深度学习(二十六)--知识图谱与推荐系统结合之DKN模型原理及实现

在本系列的上一篇中,我们大致介绍了一下知识图谱在推荐系统中的一些应用,我们最后讲到知识图谱特征学习(Knowledge Graph Embedding)是最常见的与推荐系统结合的方式,知识图谱特征学习为知识图谱中的每个实体和关系学习到一个低维向量,同时保持图中原有的结构或语义信息,最常见的得到低维向量的方式主要有基于距离的...

发表了文章 • 2018-11-09 09:30 • 1 条评论

0
推荐
4066
阅读

推荐系统遇上深度学习(二十五)--当知识图谱遇上个性化推荐

1、推荐系统的任务和难点推荐问题的本质是代替用户评估其从未看过、接触过或者使用过的物品。推荐系统一般分为两类:评分预测:预测用户对物品的评价。比如在电影推荐中,系统需要预测用户对电影的评分,并以此为根据推送给用户可能喜欢的电影。这种场景下,我们经常使用的数据是用户对历史观看过的电影的评分数据,这些...

发表了文章 • 2018-11-05 12:45 • 0 条评论

3
推荐
9595
阅读

推荐系统遇上深度学习(二十四)--深度兴趣进化网络DIEN原理及实战!

在本系列的第十八篇(https://www.jianshu.com/p/73b6f5d00f46)中,我们介绍了阿里的深度兴趣网络(Deep Interest Network,以下简称DIN),时隔一年,阿里再次升级其模型,提出了深度兴趣进化网络(Deep Interest Evolution Network,以下简称DIEN,论文地址:https://arxiv.org/pdf/1809.03672.pdf),并将其应用于淘宝的广...

发表了文章 • 2018-11-04 21:45 • 1 条评论

0
推荐
2637
阅读

残差网络ResNet网络原理及实现

论文地址:https://arxiv.org/pdf/1512.03385.pdf1、引言-深度网络的退化问题在深度神经网络训练中,从经验来看,随着网络深度的增加,模型理论上可以取得更好的结果。但是实验却发现,深度神经网络中存在着退化问题(Degradation problem)。可以看到,在下图中56层的网络比20层网络效果还要差。上面的现象与过拟合不同,...

发表了文章 • 2018-10-27 15:51 • 0 条评论

0
推荐
19691
阅读

探秘多智能体强化学习-MADDPG算法原理及简单实现

之前接触的强化学习算法都是单个智能体的强化学习算法,但是也有很多重要的应用场景牵涉到多个智能体之间的交互,比如说,多个机器人的控制,语言的交流,多玩家的游戏等等。本文,就带你简单了解一下Open-AI的MADDPG(Multi-Agent Deep Deterministic Policy Gradient)算法,来共同体验一下多智能体强化学习的魅力。论文...

发表了文章 • 2018-06-17 22:53 • 0 条评论

0
推荐
2586
阅读

推荐系统遇上深度学习(十二)--推荐系统中的EE问题及基本Bandit算法

1、推荐系统中的EE问题Exploration and Exploitation(EE问题,探索与开发)是计算广告和推荐系统里常见的一个问题,为什么会有EE问题?简单来说,是为了平衡推荐系统的准确性和多样性。EE问题中的Exploitation就是:对用户比较确定的兴趣,当然要利用开采迎合,好比说已经挣到的钱,当然要花;而exploration就是:光对着...

发表了文章 • 2018-06-09 16:57 • 0 条评论

1
推荐
3259
阅读

使用Tensorflow的DataSet和Iterator读取数据!

今天在写NCF代码的时候,发现网络上的代码有一种新的数据读取方式,这里将对应的片段剪出来给大家分享下。NCF的文章参考:https://www.jianshu.com/p/6173dbde4f53原始数据我们的原始数据保存在npy文件中,是一个字典类型,有三个key,分别是user,item和label:data = np.load('data/test_data.npy').item() print(type...

发表了文章 • 2018-06-02 19:15 • 0 条评论