关于 使人听话的药效果有多久【V信;799.196.362】拙 的搜索结果,共1859
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
时间不稳会威胁到程序健壮性和业务安全性,甚至部分程序崩溃稀里糊涂。 ntpdate只是个命令不是服务,它对远端时钟源是盲目任;假设一个根NTP服务不稳定,所服务器获得了错误时间,虽然现在业务层可以包容异常,不会出现算出负利息或倒扣费情况,但业务混乱是免不了。我们就说联机调试分布式日志,几个节点时间错可能日志就看不懂了。 NTPD服务做时间调整会减少这类情形,它不是简单龟速调整时间,而是柔性时间调整策略,让时间线跃变和调整尽量少影响业务(详情见附录实验);也不会盲目任远端时钟源,甚至固执拒绝同步时间。NTPD服务相本机时刻可能不对,但不会忽快忽慢甚至停滞,NTPD通过次收发包选择权威稳定时间源,算出双方间网络延迟,然后才会采时刻进行时钟同步。 五、误解根源和影响 因为NTPD不盲从其他时间源,让老一辈IT会留下NTPD不好用、不靠谱误会。2005年个测试用虚拟机时间经常走慢,到2010年虚拟机还要防范时间停滞Bug。即使你用物理机投入生产,网络延迟仍然不确定,且要观测NTPD同步需要时间。
l****m 2018-07-10
词向量(一)
在这个映射到实数向量表示中,希望两个语义(或用法)上相似词对应词向量“更像”,这样如“母亲节”和“康乃馨”对应词向量余弦相似度就不再为零了。 词向量模型可以是概率模型、共生矩阵(co-occurrence matrix)模型或神经元网络模型。在用神经网络求词向量之前,传统做法是统计一个词语共生矩阵XX。XX是一个|V|×|V||V|×|V| 大小矩阵,XijXij表示在所语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现词数,|V||V|为词汇表大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到UU即视为所词向量: X=USVTX=USVT 但这样传统做法问题: 由于很词没出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到好矩阵分解; 矩阵非常大,维度太高(通常达到106×106106×106数量级); 需要手动去掉停用词(如although, a,...),不然这些频繁出现词也会影响矩阵分解
TOP