关于 哪种催情香水效果最好【V信;799.196.362】唾 的搜索结果,共985
1****6 2018-07-10
感分析
自然语言是一典型的序列数据(词序列),近年来,循环神经网络及其变体(如long short term memory[5]等)在自然语言处理的多个领域,如语言模型、句法解析、语义角色标注(或一般的序列标注)、语义表示、图文生成、对话、机器翻译等任务上均表现优异甚至成为目前的方法。 图2. 循环神经网络按时间展开的示意图 循环神经网络按时间展开后如图2所示:在第tt时刻,网络读入第tt个输入xtxt(向量表示)及前一时刻隐层的状态值ht−1ht−1(向量表示,h0h0一般初始化为00向量),计算得出本时刻隐层的状态值htht,重复这一步骤直至读完所有输入。如将循环神经网络所表示的函数记为ff,则其公式可表示为: ht=f(xt,ht−1)=σ(Wxhxt+Whhht−1+bh)ht=f(xt,ht−1)=σ(Wxhxt+Whhht−1+bh) 其中WxhWxh是输入到隐层的矩阵参数,WhhWhh是隐层到隐层的矩阵参数,bhbh为隐层的偏置向量(bias)参数,σσ为sigmoidsigmoid函数。
l****m 2018-07-10
词向量(一)
XX是一个|V|×|V||V|×|V| 大小的矩阵,XijXij表示在所有语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现的词数,|V||V|为词汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到的UU即视为所有词的词向量: X=USVTX=USVT 但这样的传统做法有很多问题: 由于很多词没有出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到的矩阵分解; 矩阵非常大,维度太高(通常达到106×106106×106的数量级); 需要手动去掉停用词(如although, a,...),不然这些频繁出现的词也会影响矩阵分解的。 基于神经网络的模型不需要计算和存储一个在全语料上统计产生的大表,而是通过学习语义息得到词向量,因此能很地解决以上问题。在本章里,我们将展示基于神经网络训练词向量的细节,以及如何用PaddlePaddle训练一个词向量模型。 展示 本章中,当词向量训练后,我们可以用数据可视化算法t-SNE[4]画出词语特征在二维上的投影(如下图所示)。
TOP