关于 一体化泵站 www.dongaohuanbao.com宫钟:c 的搜索结果,共1020
c****2 2018-07-10
个性推荐(
将卷积核应用于句子中所有的词窗口x1:h,x2:h+1,…,xn−h+1:nx1:h,x2:h+1,…,xn−h+1:n,产生个特征图(feature map): c=[c1,c2,…,cn−h+1],c∈ℝn−h+1c=[c1,c2,…,cn−h+1],c∈Rn−h+1 接下来,对特征图采用时间维度上的最大池(max pooling over time)操作得到此卷积核对应的整句话的特征ĉ c^,它是特征图中所有元素的最大值: ĉ =max(c)c^=max(c) 融合推荐模型概览 在融合推荐模型的电影个性推荐系统中: 首先,使用用户特征和电影特征作为神经网络的输入,其中: 用户特征融合了四个属性信息,分别是用户ID、性别、职业和年龄。 电影特征融合了三个属性信息,分别是电影ID、电影类型ID和电影名称。 对用户特征,将用户ID映射为维度大小为256的向量表示,输入全连接层,并对其他三个属性也做类似的处理。然后将四个属性的特征表示分别全连接并相加。
l****m 2018-07-10
词向量(
XX是个|V|×|V||V|×|V| 大小的矩阵,XijXij表示在所有语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现的词数,|V||V|为词汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到的UU即视为所有词的词向量: X=USVTX=USVT 但这样的传统做法有很多问题: 由于很多词没有出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到好的矩阵分解效果; 矩阵非常大,维度太高(通常达到106×106106×106的数量级); 需要手动去掉停用词(如although, a,...),不然这些频繁出现的词也会影响矩阵分解的效果。 基于神经网络的模型不需要计算和存储个在全语料上统计产生的大表,而是通过学习语义信息得到词向量,因此能很好地解决以上问题。在本章里,我们将展示基于神经网络训练词向量的细节,以及如何用PaddlePaddle训练个词向量模型。 效果展示 本章中,当词向量训练好后,我们可以用数据可视算法t-SNE[4]画出词语特征在二维上的投影(如下图所示)。
s****5 2018-07-10
个性推荐(二)
我们要提供的feed_order应该和训练过程致。 总结 本章介绍了传统的个性推荐系统方法和YouTube的深度神经网络个性推荐系统,并以电影推荐为例,使用PaddlePaddle训练了个个性推荐神经网络模型。个性推荐系统几乎涵盖了电商系统、社交网络、广告推荐、搜索引擎等领域的方方面面,而在图像处理、自然语言处理等领域已经发挥重要作用的深度学习技术,也将会在个性推荐系统领域大放异彩。 参考文献 P. Resnick, N. Iacovou, etc. “GroupLens: An Open Architecture for Collaborative Filtering of Netnews”, Proceedings of ACM Conference on Computer Supported Cooperative Work, CSCW 1994. pp.175-186. Sarwar, Badrul, et al. "Item-based collaborative filtering recommendation algorithms."
布****五 2018-07-10
如何执行条命令
干货概览 今天我们不聊上层建筑,不聊单机房自愈,也不聊智能运维的暗夜与黎明,今天我们聊个很基础的话题:如何执行条命令。许多人看到这,可能觉得这是个简单至极的问题,事实果真如此吗,别急,下面我们来抽丝剥茧,探究竟。 什么是命令 首先回顾下“命令”的具含义,发令以使之,谓发令而使其做某事,这是“命令”词的基础释义。从这里我们可以看命令的三个最基本的要素:命令内容(令)、命令传递(发)、命令执行(使)。如果将这三要素限定在服务器上,它们又是如何运作的呢? 图1 windows与linux下的命令 命令内容(令) 无论是windows还是linux操作系统,都会提供相应的CLI(不要吐槽windows的CLI难用),供使用者交互执行命令或运行批处理脚本。仔细观察,所有命令行都有个相同的特点:固定词+选项+参数,无出其右。因CLI伴随着操作系统的诞生,且命令行处理又是个复杂但相似的过程,因此各种语言也都提供了相应的库支持,如C语言提供了getopt/getopt_long等函数,C++的boost提供了Options库,shell中处理此事的是getopts和getopt。
TOP