关于 怎么推广灰色关键词快速排名q扣2810853647 莆田南日岛 的搜索结果,共855
l****m 2018-07-10
向量(一)
文章结构: 向量 背景介绍 效果展示 模型概览 数据准备 编程实现 模型应用 总结 参考文献 本教程源代码目录在book/word2vec,初次使用请您参考Book文档使用说明。 背景介绍 本章我们介绍的向量表征,也称为word embedding。向量是自然语言处理中常见的一个操作,是搜索引擎、广告系统、荐系统等互联网服务背后常见的基础技术。 在这些互联网服务里,我们经常要比较两个或者两段文本之间的相性。为了做这样的比较,我们往往先要把表示成计算机适合处理的方式。最自然的方式恐怕莫过于向量空间模型(vector space model)。 在这种方式里,每个被表示成一个实数向量(one-hot vector),其长度为字典大小,每个维度对应一个字典里的每个,除了这个对应维度上的值是1,其他元素都是0。 One-hot vector虽然自然,但是用处有限。比如,在互联网广告系统里,如果用户输入的query是“母亲节”,而有一个广告的是“康乃馨”。
c****2 2018-07-10
个性化荐(一)
考虑到softmax分类的类别数非常多,为了保证一定的计算效率:1)训练阶段,使用负样本类别采样将实际计算的类别数缩小至数千;2)荐(预测)阶段,忽略softmax的归一化计算(不影响结果),将类别打分问题简化为点积(dot product)空间中的最近邻(nearest neighbor)搜索问题,取与uu最近的kk个视频作为生成的候选。 序网络(Ranking Network) 序网络的结构类似于候选生成网络,但是它的目标是对候选进行更细致的打分序。和传统广序中的特征抽取方法类似,这里也构造了大量的用于视频序的相特征(如视频 ID、上次观看时间等)。这些特征的处理方式和候选生成网络类似,不同之处是序网络的顶部是一个加权逻辑回归(weighted logistic regression),它对所有候选视频进行打分,从高到底序后将分数较高的一些视频返回给用户。 融合荐模型 本节会使用卷积神经网络(Convolutional Neural Networks)来学习电影称的表示。下面会依次介绍文本卷积神经网络以及融合荐模型。
双****4 2018-07-10
向量(三)
整个程序的入口很简单: def main(use_cuda, is_sparse): if use_cuda and not fluid.core.is_compiled_with_cuda(): return params_dirname = "word2vec.inference.model" train( if_use_cuda=use_cuda, params_dirname=params_dirname, is_sparse=is_sparse) infer(use_cuda=use_cuda, params_dirname=params_dirname) main(use_cuda=use_cuda, is_sparse=True) 总结 本章中,我们介绍了向量、语言模型和向量的系、以及如何通过训练神经网络模型获得向量。在信息检索中,我们可以根据向量间的余弦夹角,来判断query和文档这二者间的相性。在句法分析和语义分析中,训练好的向量可以用来初始化模型,以得到更好的效果。
用****在 2018-07-10
向量(二)
我们在上文中已经讲到用条件概率建模语言模型,即一句话中第tt个的概率和该句话的前t−1t−1个。可实际上越远的语其实对该的影响越小,那如果考虑一个n-gram, 每个都只受其前面n-1个的影响,则有: P(w1,...,wT)=∏t=nTP(wt|wt−1,wt−2,...,wt−n+1)P(w1,...,wT)=∏t=nTP(wt|wt−1,wt−2,...,wt−n+1) 给定一些真实语料,这些语料中都是有意义的句子,N-gram模型的优化目标则是最大化目标函数: 1T∑tf(wt,wt−1,...,wt−n+1;θ)+R(θ)1T∑tf(wt,wt−1,...,wt−n+1;θ)+R(θ) 其中f(wt,wt−1,...,wt−n+1)f(wt,wt−1,...,wt−n+1)表示根据历史n-1个得到当前wtwt的条件概率,R(θ)R(θ)表示参数正则项。 图2.
TOP