关于 迷情药效果有多久【V信;799.196.362】卫 的搜索结果,共1106
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
ntpdate只是个命令不是服务,它对远端时钟源是盲目任;假设一个根NTP服务不稳定,所的服务器获得了错误的时间,虽然现在业务层可以包容异常,不会出现算出负利息或倒扣费的况,但业务混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间错可能日志就看不懂了。 NTPD服务做时间调整会减少这类形,它不是简单的龟速调整时间,而是柔性时间调整策略,让时间线的跃变和调整尽量少影响业务(详见附录实验);也不会盲目任远端时钟源,甚至固执的拒绝同步时间。NTPD服务相本机时刻可能不对,但不会忽快忽慢甚至停滞,NTPD通过次收发包选择权威稳定的时间源,算出双方间的网络延迟,然后才会采新的时刻进行时钟同步。 五、误解的根源和影响 因为NTPD不盲从其他时间源,让老一辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入生产,网络延迟仍然不确定,且要观测NTPD同步需要时间。
1****6 2018-07-10
感分析
自然语言是一种典型的序列数据(词序列),近年来,循环神经网络及其变体(如long short term memory[5]等)在自然语言处理的个领域,如语言模型、句法解析、语义角色标注(或一般的序列标注)、语义表示、图文生成、对话、机器翻译等任务上均表现优异甚至成为目前最好的方法。 图2. 循环神经网络按时间展开的示意图 循环神经网络按时间展开后如图2所示:在第tt时刻,网络读入第tt个输入xtxt(向量表示)及前一时刻隐层的状态值ht−1ht−1(向量表示,h0h0一般初始化为00向量),计算得出本时刻隐层的状态值htht,重复这一步骤直至读完所输入。如将循环神经网络所表示的函数记为ff,则其公式可表示为: ht=f(xt,ht−1)=σ(Wxhxt+Whhht−1+bh)ht=f(xt,ht−1)=σ(Wxhxt+Whhht−1+bh) 其中WxhWxh是输入到隐层的矩阵参数,WhhWhh是隐层到隐层的矩阵参数,bhbh为隐层的偏置向量(bias)参数,σσ为sigmoidsigmoid函数。
l****m 2018-07-10
词向量(一)
XX是一个|V|×|V||V|×|V| 大小的矩阵,XijXij表示在所语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现的词数,|V||V|为词汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到的UU即视为所词的词向量: X=USVTX=USVT 但这样的传统做法问题: 由于很词没出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到好的矩阵分解; 矩阵非常大,维度太高(通常达到106×106106×106的数量级); 需要手动去掉停用词(如although, a,...),不然这些频繁出现的词也会影响矩阵分解的。 基于神经网络的模型不需要计算和存储一个在全语料上统计产生的大表,而是通过学习语义息得到词向量,因此能很好地解决以上问题。在本章里,我们将展示基于神经网络训练词向量的细节,以及如何用PaddlePaddle训练一个词向量模型。 展示 本章中,当词向量训练好后,我们可以用数据可视化算法t-SNE[4]画出词语特征在二维上的投影(如下图所示)。
TOP