关于 6亿彩票量 zs25.com 主管Q:86_432_556通b 的搜索结果,共481
双****4 2018-07-10
词向(三)
整个程序的入口很简单: def main(use_cuda, is_sparse): if use_cuda and not fluid.core.is_compiled_with_cuda(): return params_dirname = "word2vec.inference.model" train( if_use_cuda=use_cuda, params_dirname=params_dirname, is_sparse=is_sparse) infer(use_cuda=use_cuda, params_dirname=params_dirname) main(use_cuda=use_cuda, is_sparse=True) 总结 本章中,我们介绍了词向、语言模型和词向的关系、以及如何过训练神经网络模型获得词向。在信息检索中,我们可以根据向间的余弦夹角,来判断query和文档关键词这二者间的相关性。在句法分析和语义分析中,训练好的词向可以用来初始化模型,以得到更好的效果。
l****m 2018-07-10
词向(一)
虽然按照常理,我们知道这两个词之间是有联系的——母亲节常应该送给母亲一束康乃馨;但是这两个词对应的one-hot vectors之间的距离度,无论是欧氏距离还是余弦相似度(cosine similarity),由于其向正交,都认为这两个词毫无相关性。 得出这种与我们相悖的结论的根本原因是:每个词本身的信息都太小。所以,仅仅给定两个词,不足以让我们准确判别它们是否相关。要想精确计算相关性,我们还需要更多的信息——从大数据里过机器学习方法归纳出来的知识。 在机器学习领域里,各种“知识”被各种模型表示,词向模型(word embedding model)就是其中的一类。过词向模型可将一个 one-hot vector映射到一个维度更低的实数向(embedding vector),如embedding(母亲节)=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]embedding(母亲节)=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]。
用****在 2018-07-10
词向(二)
文中的神经概率语言模型(Neural Network Language Model,NNLM)过一个线性映射和一个非线性隐层连接,同时学习了语言模型和词向,即过学习大语料得到词语的向表达,过这些向得到整个句子的概率。因所有的词语都用一个低维向来表示,用这种方法学习语言模型可以克服维度灾难(curse of dimensionality)。注意:由于“神经概率语言模型”说法较为泛泛,我们在这里不用其NNLM的本名,考虑到其具体做法,本文中称该模型为N-gram neural model。 我们在上文中已经讲到用条件概率建模语言模型,即一句话中第tt个词的概率和该句话的前t−1t−1个词相关。可实际上越远的词语其实对该词的影响越小,那么如果考虑一个n-gram, 每个词都只受其前面n-1个词的影响,则有: P(w1,...,wT)=∏t=nTP(wt|wt−1,wt−2,...,wt−n+1)P(w1,...,wT)=∏t=nTP(wt|wt−1,wt−2,...
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
它屏蔽了云服务底层繁杂的控逻辑,提供简化接口给上层系统NoahEE调用,使上层系统更好更快地释放价值。 Q这么优秀的系统到底是如何实现的呢? AHALO系统采用从架构,分为Master端和Agent端。 Master端要做复杂的任务调度和控逻辑,并且所有功能都是模块化设计,用户可以根据自己的需求定制安装,包括虚拟化容器理,应用包理、部署、扩缩容、拓扑搭建和保活,集群控制等。 Agent端则以简单为原则,弱化繁琐功能,仅作为任务的执行器,其中的supervisor组件,结合父子双进程原理,做到自升级和自保活,把云运维人员的工作降到最低。 整个系统的工作流程也十分简洁优雅!Agent过定期心跳的方式,与Master进行信,在心跳发包中发送本机状态信息,在心跳回包中获取Master期望的本机状态plan,并把期望plan与本地实际plan进行对比,针对有差异的地方做相应修改,使二者保持一致,从而保证集群中所有机器最终状态一致。 总之一句话,一朝HALO在手,从此不用发愁。所有运维需求,直接调用接口。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
单账户大铺模式下,所有的平台短信和邮件都往一个账户发就行了,但现在要重新设计。我的一线技术工作经历并不依赖第三方(如云平台)知机制,对知功能的研究较少,所以我只能提出用性设计建议: a.别把平台维护知当做甩锅知,大客户会因此忙到鸡飞狗跳。 b.员工正常操作不要知到理员,自然人收到的信息太多会麻木。 c.员工执行摧毁核心资源等高危的操作要及时理员。 d.这些操作日志可以过API等方式对接到企业自身的平台。 e.合规和安全风险发送平台理员和资源池理员。 云平台有知机制就要有理权限,比如说某IP存在合规隐患,理员要能查看和操作该IP;否则平台理员只能组织各部门领导开会,平台的理员一般不是公司高,其处理速度和处理效果就很慢也很扰民了。 第五.其他随笔说明 a.过去云平台做计费和权限开发很繁琐,云平台支持精细控制后云平台的对接成本会瞬间降低,那些功能缺失又不是行业标杆的云平台会云平台被逐渐放弃接入。 b.有客户想给不同资源组做不同资源单价,这是个弱需求,该需求技术实现繁琐且有客户可接受的变方法,比如子账户登陆只计不计价,价格在心中。
s****d 2018-07-11
亿元级云用户分析
云厂商提供四类人力资源: 第一类是方案咨询和项目规划,不要被免费用售前蒙蔽了视野,出的规划咨询重度依赖精英人力,既要是云产品专家又要是客户侧IT高手; 第二是平台侧研发运维,即使最标准的CDN服务也要定制日志接口、微调卡顿和回源比,销售铁三角必须最顺畅沟最高优先级; 第三是项目侧实施人力,云厂商可以做盖机房到App适配的所有工作,客户只想对接一个总包责任人; 第四是客户挖不来留不住“云厂商母公司的顶级技术高手”,他们想借云项目让高手做人力输出,但是……。 读者们不要觉得卖人日很低端,人力资源是难以垄断和模板化复制的;只有不能垄断的行业,精英打工者才有极大的发挥空间。 4.架构和流程变化分析 大型云用户在上云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和保证用性,我写的比较简单。 硬件和系统理——硬件是标准还是特配、产权是租是卖、内网代维还是自设计、服务器交钥匙还是黑盒服务——不同的客户项目需求,导致硬件理和监控不同于传统方案也不同于其他云项目。 广域网联方案——云厂商大都是互联网出身,他们拥有DDOS的资源和统一前端的实践经验,还有海廉价优质带宽。
m****t 2018-07-11
设计中立公有云云平台
平台的客户很少会滥用资源,平台是厂商的大客户也不会轻易欠费停机,云平台可以只做简单粗糙的配额系统,以减少用户误操作为准,如果工期过紧甚至可以先不做配额系统。 用户系统要有一个客户可用的Web理控制台,让用户可以完成各种资源操作。该理控制台借鉴各大公有云控制台即可,所要展示的资源和功能已经在前文讨论过了,该产品可完美模拟功能强大,也可以极速从简只做必要功能。 3.计费系统 标准计费系统的功能复杂又强大,每个账户是预付费还是后付费、当前有多少余额/透支额度、单个资源是打包整体付费还是按需按付费,免费配赠资源的占用策略,资源欠费后的保留周期,网银和财务付费接口,甚至连发理都是计费系统要涉及的。 本部分说明如何用一两个人月就能做出来的对账式计费系统。 用户相对可控,对反赖账逻辑就可以弱化甚至不做。 按付费就要几分钟一次频繁对账,那就把虚拟机、公网IP的按付费砍掉,做成包月付费;对不能做成包月付费逻辑的资源,小金额需求直接打包或减免(比如说OSS的get post费用是一百块钱上亿次),大金额项目只能做成延迟出账单的后付费(比如CDN账单)。
TOP