关于 首页新浪微博批量发帖软件σσ:2810 的搜索结果,共820
2018-07-10
解密开源这门生意——商业角度看开源
的质并不能简单看开源还是闭源,的设计思路一样能被相互借鉴,但架构不同实现手段也不能抄袭;这就像做开源的猪肉饺子和闭源的肉沫狮子头,两者可以相互借鉴口味和风评,但你看透我的原材料也不能照搬抄袭。 开源的安全性在于大家都能看到源码并报告问题,但前提条是大家都肯看源码,能现有安全漏洞,还肯上报安全问题。OpenSSL的heartbleed漏洞存在了好几年时间,但骇客是静悄悄的利用该漏洞,而不做任何漏洞上报。而闭源的安全问题,和开源一样看写代码和查漏洞的人。 接触开源的开者经常带着皈依者狂热去鼓吹开源,但这种狂热没有实质性帮助,贡献更好的代码、观摩精妙的架构,才是开源精英应该做的事情。
双****4 2018-07-10
词向(三)
整个程序的入口很简单: def main(use_cuda, is_sparse): if use_cuda and not fluid.core.is_compiled_with_cuda(): return params_dirname = "word2vec.inference.model" train( if_use_cuda=use_cuda, params_dirname=params_dirname, is_sparse=is_sparse) infer(use_cuda=use_cuda, params_dirname=params_dirname) main(use_cuda=use_cuda, is_sparse=True) 总结 本章中,我们介绍了词向、语言模型和词向的关系、以及如何通过训练神经网络模型获得词向。在信息检索中,我们可以根据向间的余弦夹角,来判断query和文档关键词这二者间的相关性。在句法分析和语义分析中,训练好的词向可以用来初始化模型,以得到更好的效果。
l****m 2018-07-10
词向(一)
基于神经网络的模型不需要计算和存储一个在全语料上统计产生的大表,而是通过学习语义信息得到词向,因此能很好地解决以上问题。在本章里,我们将展示基于神经网络训练词向的细节,以及如何用PaddlePaddle训练一个词向模型。 效果展示 本章中,当词向训练好后,我们可以用数据可视化算法t-SNE[4]画出词语特征在二维上的投影(如下图所示)。从图中可以看出,语义相关的词语(如a, the, these; big, huge)在投影上距离很近,语意无关的词(如say, business; decision, japan)在投影上的距离很远。 图1. 词向的二维投影 另一方面,我们知道两个向的余弦值在[−1,1][−1,1]的区间内:两个完全相同的向余弦值为1, 两个相互垂直的向之间余弦值为0,两个方向完全相反的向余弦值为-1,即相关性和余弦值大小成正比。
TOP