关于 吉林向阳少妇援交〖10669708薇信〗 的搜索结果,共350
l****m 2018-07-10
量(一)
虽然按照常理,我们知道这两个词之间是有联系的——母亲节通常应该送给母亲一束康乃馨;但是这两个词对应的one-hot vectors之间的距离度量,无论是欧氏距离还是余弦相似度(cosine similarity),由于其量正,都认为这两个词毫无相关性。 得出这种与我们相悖的结论的根本原因是:每个词本身的息量都太小。所以,仅仅给定两个词,不足以让我们准确判别它们是否相关。要想精确计算相关性,我们还需要更多的息——从大量数据里通过机器学习方法归纳出来的知识。 在机器学习领域里,各种“知识”被各种模型表示,词量模型(word embedding model)就是其中的一类。通过词量模型可将一个 one-hot vector映射到一个维度更低的实数量(embedding vector),如embedding(母亲节)=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]embedding(母亲节)=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]。
用****在 2018-07-10
量(二)
,wt−n+1)=egwt∑i|V|egi 整个网络的损失值(cost)为多类分类叉熵,用公式表示为: J(θ)=−∑i=1N∑k=1|V|yiklog(softmax(gik))J(θ)=−∑i=1N∑k=1|V|ykilog(softmax(gki)) 其中yikyki表示第ii个样本第kk类的真实标签(0或1),softmax(gik)softmax(gki)表示第i个样本第k类softmax输出的概率。 Continuous Bag-of-Words model(CBOW) CBOW模型通过一个词的上下文(各N个词)预测当前词。当N=2时,模型如下图所示: 图3. CBOW模型 具体来说,不考虑上下文的词语输入顺序,CBOW是用上下文词语的词量的均值来预测当前词。即: context=xt−1+xt−2+xt+1+xt+24context=xt−1+xt−2+xt+1+xt+24 其中xtxt为第tt个词的词量,分类分数(score)量 z=U∗contextz=U∗context,最终的分类yy采用softmax,损失函数采用多类分类叉熵。
双****4 2018-07-10
量(三)
整个程序的入口很简单: def main(use_cuda, is_sparse): if use_cuda and not fluid.core.is_compiled_with_cuda(): return params_dirname = "word2vec.inference.model" train( if_use_cuda=use_cuda, params_dirname=params_dirname, is_sparse=is_sparse) infer(use_cuda=use_cuda, params_dirname=params_dirname) main(use_cuda=use_cuda, is_sparse=True) 总结 本章中,我们介绍了词量、语言模型和词量的关系、以及如何通过训练神经网络模型获得词量。在息检索中,我们可以根据量间的余弦夹角,来判断query和文档关键词这二者间的相关性。在句法分析和语义分析中,训练好的词量可以用来初始化模型,以得到更好的效果。
摩****5 2018-07-11
发多
都是防晒
TOP