关于 女用兴奋剂在哪买到【V信;799.196.362】迅 的搜索结果,共1325
h****e 2018-07-10
程序:我从里来?
干货概览 计算机程序或者服务的层次上,我们来试着分析前面提的几个问题。 问题 1.我是谁? 服务叫什么,服务包含了些实例,服务规模、部署情况、实例运行状况如何? 2.我从里来? 服务的上游有些,不同的上游流量如何分配? 3.我往里去? 服务的下游有些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字服务)是百度云智能运维团队研发的一套分布式的名字服务系统,是百度云Noah智能运维产品中的一个重要基础服务系统。它为每一个服务赋予一个独一无二的名字,根据这个名字,我们就可以获取这个服务的相关息 ,这些息包括:服务机器上部署息(机器IP,部署路径,服务配置,端口息),服务的实例运行状况等其他重要息。简单来讲,它提供了一个服务名资源息的一个映射关系。
l****m 2018-07-10
词向量(一)
神经网络求词向量之前,传统做法是统计一个词语的共生矩阵XX。XX是一个|V|×|V||V|×|V| 大小的矩阵,XijXij表示所有语料中,词汇表VV(vocabulary)中第i个词和第j个词同时出现的词数,|V||V|为词汇表的大小。对XX做矩阵分解(如奇异值分解,Singular Value Decomposition [5]),得的UU即视为所有词的词向量: X=USVTX=USVT 但这样的传统做法有很多问题: 由于很多词没有出现,导致矩阵极其稀疏,因此需要对词频做额外处理来达好的矩阵分解效果; 矩阵非常大,维度太高(通常达106×106106×106的数量级); 需要手动去掉停词(如although, a,...),不然这些频繁出现的词也会影响矩阵分解的效果。 基于神经网络的模型不需要计算和存储一个全语料上统计产生的大表,而是通过学习语义息得词向量,因此能很好地解决以上问题。本章里,我们将展示基于神经网络训练词向量的细节,以及如何PaddlePaddle训练一个词向量模型。
c****2 2018-07-10
个性化推荐(一)
文章结构: 背景介绍——效果展示——模型概览——数据准备——训练模型——应模型——总结——参考文献 本教程源代码目录book/recommender_system,初次使请您参考Book文档使说明。 背景介绍 网络技术不断发展和电子商务规模不断扩大的背景下,商品数量和种类快速增长,户需要花费大量时间才能找自己想的商品,这就是息超载问题。为了解决这个难题,个性化推荐系统(Recommender System)应运而生。 个性化推荐系统是息过滤系统(Information Filtering System)的子集,它可以很多领域,如电影、音乐、电商和 Feed 流推荐等。个性化推荐系统通过分析、挖掘户行为,发现户的个性化需求与趣特点,将户可能感趣的息或商品推荐给户。与搜索引擎不同,个性化推荐系统不需要户准确地描述出自己的需求,而是根据户的历史行为进行建模,主动提供满足趣和需求的息。 1994年明尼苏达大学推出的GroupLens系统[1]一般被认为是个性化推荐系统成为一个相对独立的研究方向的标志。
h****l 2018-07-09
大数据时代下的隐私保护(二)
答案并不是这样,我们看下面的例子: 这个例子中,我们保证了2- anonymity , 2-diversity , t-closeness(分布近似), 工资和购偏好是敏感属性。攻击者通过李雷的个人息找了四条数据,同时知道李 雷有很多书,这样就能很容易四条数据中找李雷的那一条,从而造成隐私泄露。可 能有些读者会有疑问,通过背景知识攻击k-anonymity 的前提是不是假设了 解quasi-identifier ?并不是这样,针对敏感属性的背景攻击对k-anonymity 也适 ,所以无论经过些属性保证,隐私泄露还是很难避免。 差分隐私(differential privacy) 除了之前我们介绍的针对k-anonymity, l-diversity,t-closeness 三种隐私保护方法的 攻击之外,还有一种叫做差分攻击( differential attack )。举个例子,购物公司发布了 购物偏好的数据,说我们有100 个人的购物偏好数据,其中有10 个人偏爱购汽车 品,其他90 个偏爱购电子产品。
TOP