关于 模压化粪池 www.fhccj.net/第五小 的搜索结果,共470
c****2 2018-07-10
个性推荐(一)
融合推荐型 本节会使用卷积神经网络(Convolutional Neural Networks)来学习电影名称的表示。下面会依次介绍文本卷积神经网络以及融合推荐型。 文本卷积神经网络(CNN) 卷积神经网络经常用来处理具有类似网格拓扑结构(grid-like topology)的数据。例如,图像可以视为二维网格的像素点,自然语言可以视为一维的词序列。卷积神经网络可以提取多种局部特征,并对其进行组合抽象得到更高级的特征表示。实验表明,卷积神经网络能高效地对图像及文本问题进行建处理。 卷积神经网络主要由卷积(convolution)和(pooling)操作构成,其应用及组合方式灵活多变,种类繁多。本结我们以如图3所示的网络进行讲解: 图3. 卷积神经网络文本分类型 假设待处理句子的长度为nn,其中ii个词的词向量为xi∈ℝkxi∈Rk,kk为维度大
s****5 2018-07-10
个性推荐(二)
paddle.dataset.movielens.train 每次会在乱序后提供一个大为BATCH_SIZE的数据,乱序的大为缓存大buf_size。 train_reader = paddle.batch( paddle.reader.shuffle( paddle.dataset.movielens.train(), buf_size=8192), batch_size=BATCH_SIZE) test_reader = paddle.batch( paddle.dataset.movielens.test(), batch_size=BATCH_SIZE) 构造训练过程(trainer) 我们这里构造了一个训练过程,包括训练优函数。 提供数据 feed_order用来定义每条产生的数据和paddle.layer.data之间的映射关系。比如,movielens.train产生的一列的数据对应的是user_id这个特征。
用****在 2018-07-10
词向量(二)
gg表示未经归一的所有输出单词概率,gigi表示未经归一的字典中ii个单词的输出概率。 根据softmax的定义,通过归一gigi, 生成目标词wtwt的概率为: P(wt|w1,...,wt−n+1)=egwt∑|V|iegiP(wt|w1,...,wt−n+1)=egwt∑i|V|egi 整个网络的损失值(cost)为多类分类交叉熵,用公式表示为: J(θ)=−∑i=1N∑k=1|V|yiklog(softmax(gik))J(θ)=−∑i=1N∑k=1|V|ykilog(softmax(gki)) 其中yikyki表示ii个样本kk类的真实标签(0或1),softmax(gik)softmax(gki)表示i个样本k类softmax输出的概率。 Continuous Bag-of-Words model(CBOW) CBOW型通过一个词的上下文(各N个词)预测当前词。当N=2时,型如下图所示: 图3. CBOW型 具体来说,不考虑上下文的词语输入顺序,CBOW是用上下文词语的词向量的均值来预测当前词。
若****客 2018-07-10
IT架构的本质--我的点感悟
我将架构师的工作总结出条核心道理,这条经验简单直白又深奥通透,算是对我十二年IT工作的一个总结。 1. 需求优最重要 少查少写少依赖,Less is more 一个IT系统是多角色多块分层分级的,像OSI型上层应用简单依赖下层支撑,SOA设计中同级角色也只看对方的接口。 各角色分工明确方便快速实现业务,但是给架构优也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个逻辑需求会导致后端大规联动,不同服务也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。 我们要搞架构设计最重要的就是砍需求,将上层应用的需求优删减,让同级的业务能容错。上层需求优,即前端对后端少输入少查询多容错,而同级容错可以看做应用间的需求优,比如两个服务可以幂等重试就是好解耦,而A系统会等B系统等到死锁就是架构悲剧。 某电商ERP系统的用户点一次查询按钮,后台系统就锁库查询一次;实操过程中系统越慢用户就重复点查询按钮,而并行查询越多后台速度就更慢。
TOP