关于 seo灰色词快速排名qq:2810853647惠来县腾讯视频p 的搜索结果,共1025
c****2 2018-07-10
个性化推荐(一)
候选生成网络结构 对于一个用户UU,预测此刻用户要观看的ωω为ii的概率公式为: P(ω=i|u)=eviu∑j∈VevjuP(ω=i|u)=eviu∑j∈Vevju 其中uu为用户UU的特征表示,VV为库集合,vivi为库中第ii个的特征表示。uu和vivi为长度相等的向量,两者点积可以通过全连接层实现。 考虑到softmax分类的类别数非常多,为了保证一定的计算效率:1)训练阶段,使用负样本类别采样将实际计算的类别数缩小至数千;2)推荐(预测)阶段,忽略softmax的归一化计算(不影响结果),将类别打分问题简化为点积(dot product)空间中的最近邻(nearest neighbor)搜索问题,取与uu最近的kk个作为生成的候选。 序网络(Ranking Network) 序网络的结构类似于候选生成网络,但是它的目标是对候选进行更细致的打分序。和传统广告序中的特征抽取方法类似,这里也构造了大量的用于序的相关特征(如 ID、上次观看时间等)。
用****在 2018-07-10
向量(二)
文章结构: 向量 背景介绍 效果展示 模型概览 数据准备 编程实现 模型应用 总结 参考文献 模型概览 在这里我们介绍三个训练向量的模型:N-gram模型,CBOW模型和Skip-gram模型,它们的中心思想都是通过上下文得到一个出现的概率。对于N-gram模型,我们会先介绍语言模型的概念,并在之后的训练模型中,带大家用PaddlePaddle实现它。而后两个模型,是近年最有的神经元向量模型,由 Tomas Mikolov 在Google 研发[3],虽然它们很浅很简单,但训练效果很好。 语言模型 在介绍向量模型之前,我们先引入一个概念:语言模型。 语言模型旨在为语句的联合概率函数P(w1,...,wT)P(w1,...,wT)建模, 其中wiwi表示句子中的第i个。语言模型的目标是,希望模型对有意义的句子赋予大概率,对没意义的句子赋予小概率。 这样的模型可以应用于很多领域,如机器翻译、语音识别、信息检索、性标注、手写识别等,它们都希望能得到一个连续序列的概率。
l****m 2018-07-10
向量(一)
在这个映射到的实数向量表示中,希望两个语义(或用法)上相似的对应的向量“更像”,这样如“母亲节”和“康乃馨”的对应向量的余弦相似度就不再为零了。 向量模型可以是概率模型、共生矩阵(co-occurrence matrix)模型或神经元网络模型。在用神经网络求向量之前,传统做法是统计一个语的共生矩阵XX。XX是一个|V|×|V||V|×|V| 大小的矩阵,XijXij表示在所有语料中,汇表VV(vocabulary)中第i个和第j个同时出现的数,|V||V|为汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到的UU即为所有向量: X=USVTX=USVT 但这样的传统做法有很多问题: 由于很多没有出现,导致矩阵极其稀疏,因此需要对做额外处理达到好的矩阵分解效果; 矩阵非常大,维度太高(通常达到106×106106×106的数量级); 需要手动去掉停用(如although, a,...),不然这些繁出现的也会影响矩阵分解的效果。
双****4 2018-07-10
向量(三)
def infer(use_cuda, params_dirname=None): place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace() exe = fluid.Executor(place) inference_scope = fluid.core.Scope() with fluid.scope_guard(inference_scope): # 使用fluid.io.load_inference_model获取inference program, # feed变量的称feed_target_names和从scope中fetch的对象fetch_targets [inferencer, feed_target_names, fetch_targets] = fluid.io.load_inference_model(params_dirname, exe) # 设置输入,用四个LoDTensor表示4个语。这里每个都是一个id, # 用查询embedding表获取对应的向量,因此其形状大小是[1]。
TOP