关于 迷情药真实效果【V信;799.196.362】霉 的搜索结果,共743
双****4 2018-07-11
【杂谈】猎场没那么精彩--还原的猎头
当遭遇面试失败,资深猎头能要到失败原因通报给候选人,而新手猎头不关注面试失败原因,用人部门给的失败原因都是敷衍套话。 也有一部分猎头会和优质候选人保持长时间关系,但这太费时间了,猎头五年内给同一个候选人介绍两次工作的几率在是太小了。 我这里没提诸如JD介绍、简历优化一类基础内容,合格的候选人会认专业的分析职位需求,不需要猎头来催的。 用人单位评估猎头的水平就更简单了,就是写推荐说明。新手猎头是写不出干货锤的推荐的,而资深猎头的推荐不仅是对候选人简历的解析,也会包含简历之外的大量建议说明。
1****6 2018-07-10
感分析
际应用中,我们会使用多个卷积核来处理句子,窗口大小相同的卷积核堆叠起来形成一个矩阵,这样可以更高的完成运算。另外,我们也可使用窗口大小不同的卷积核来处理句子,推荐系统一节的图3作为示意画了四个卷积核,既文本图1,不同颜色表示不同大小的卷积核操作。 图1. 卷积神经网络文本分类模型 对于一般的短文本分类问题,上文所述的简单的文本卷积网络即可达到很高的正确率[1]。若想得到更抽象更高级的文本特征表示,可以构建深层文本卷积神经网络[2,3]。 循环神经网络(RNN) 循环神经网络是一种能对序列数据进行精确建模的有力工具。际上,循环神经网络的理论计算能力是图灵完备的[4]。自然语言是一种典型的序列数据(词序列),近年来,循环神经网络及其变体(如long short term memory[5]等)在自然语言处理的多个领域,如语言模型、句法解析、语义角色标注(或一般的序列标注)、语义表示、图文生成、对话、机器翻译等任务上均表现优异甚至成为目前最好的方法。 图2.
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
除了少数商业数据库服务自带时钟源以外,大部分业务服务对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业务安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是服务,它对远端时钟源是盲目任;假设一个根NTP服务不稳定,所有的服务器获得了错误的时间,虽然现在业务层可以包容异常,不会出现算出负利息或倒扣费的况,但业务混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。 NTPD服务做时间调整会有减少这类形,它不是简单的龟速调整时间,而是有柔性时间调整策略,让时间线的跃变和调整尽量少影响业务(详见附录验);也不会盲目任远端时钟源,甚至固执的拒绝同步时间。NTPD服务相本机时刻有可能不对,但不会忽快忽慢甚至停滞,NTPD通过多次收发包选择权威稳定的时间源,算出双方间的网络延迟,然后才会采新的时刻进行时钟同步。
l****m 2018-07-10
词向量(一)
XX是一个|V|×|V||V|×|V| 大小的矩阵,XijXij表示在所有语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现的词数,|V||V|为词汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得到的UU即视为所有词的词向量: X=USVTX=USVT 但这样的传统做法有很多问题: 由于很多词没有出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达到好的矩阵分解; 矩阵非常大,维度太高(通常达到106×106106×106的数量级); 需要手动去掉停用词(如although, a,...),不然这些频繁出现的词也会影响矩阵分解的。 基于神经网络的模型不需要计算和存储一个在全语料上统计产生的大表,而是通过学习语义息得到词向量,因此能很好地解决以上问题。在本章里,我们将展示基于神经网络训练词向量的细节,以及如何用PaddlePaddle训练一个词向量模型。 展示 本章中,当词向量训练好后,我们可以用数据可视化算法t-SNE[4]画出词语特征在二维上的投影(如下图所示)。
TOP