关于 兼职少妇包夜全套服务薇78792796廊坊安次区按摩sldfy 的搜索结果,共688
1****2 2018-07-09
百度:AI 是系统工程 需要真正开放的护航
根据百度的总结,AI 的含传统层面,比如AI 系统的硬件、软件、 框架、协议等,也含AI 自身层面的,比如错误地引导机器学习系统,以达到攻 击者的目的,或者破坏机器学习的样本,让机器学习得出错误的结果。 在最近的GeekPwn 极棒破解大会现场,百度实验室的研究员只用一张打印的A4 纸晃了晃,就成功秒破了某卓智能手机的人脸识别认证系统,虹膜和指纹也相继 被破解。AI 时代,人脸识别、指纹密码、人眼虹膜认证等生物认证方法,取代了传统 的密码。很多人认为生物识别的唯一性保护了我们的隐私。但事实上,这种想法实在过 于简单。要知道,当你成功把自己变成一个活着的人体密码的时候,也就成为了黑客的 重要“资源”。 云管端一体化的AI 方案 在这OASES 联盟成立的发布会上,百度宣布向联盟成员开放了其在AI 生态上的多项能力。官方的说法是,希望在智能终端领域,通过专利共享、技术开源、标准共建,与联盟合作伙伴共同推动技术与的应用落地,共建的AI 时代。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一既灵活又完整的规范。
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
M****点 2018-07-10
中国云计算现状——产品篇
OpenStack API可以将网卡在主机之间插拔管理,网卡从主机附属设备变成了独立资源,内网IP的分配责从系统工程师变成了网络工程师,无数被组恶心过的用户,也逐渐放弃了本机防火墙。这些改变是从网络层面践行云计算的设计哲学,单机(IP/防火墙)不重要,云主机就是生生不息的群狼,组织群狼的网络更加重要了。 二、PaaS产品 相比同质化竞争主打价格牌的IaaS云,PaaS产品才是云计算的未来。用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云平台和IaaS云资源的别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
若****客 2018-07-10
IT架构的本质--我的五点感悟
需求优化最重要 依赖,Less is more 一个IT系统是多角色多模块分层分级的,像OSI模型上层应用简单依赖下层支撑,SOA设计中同级角色也只看对方的接口。 各角色分工明确方便快速实现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个小逻辑需求会导致后端大规模联动,不同也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。 我们要搞架构设计最重要的就是砍需求,将上层应用的需求优化删减,让同级的业能容错。上层需求优化,即前端对后端输入查询多容错,而同级容错可以看做应用间的需求优化,比如两个可以幂等重试就是好解耦,而A系统会等B系统等到死锁就是架构悲剧。 某电商ERP系统的用户点一查询钮,后台系统就锁库查询一;实操过程中系统越慢用户就重复点查询钮,而并行查询越多后台速度就更慢。这种环境要搞架构优化,首先要理解自然人并不要求实时数据,ERP客户端限制每15秒才能点一查询钮,在Web接入层限制每个Session每分钟只能查询一,还可在数据库链接类库上做一层控制策略。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
遇到过几倒霉事以后,我习惯用dd备份每台器的前512字节,但自从我做完备份以后,就再也没倒霉过。 4.GRUB引导启动vmlinuz内核。 GRUB2如果细说有stage1、stage1.5、stage2多个步骤,我们可以简单认为前面两步是为了苟到stage2加载为止。 我们用GRUB来选定要加载的内核,并向其传递大量启动参数,这样就可以在多OS、多Kernel、多runlevel之间来回切换。网上的GRUB调试教程都集中在这一步,我们还可以直接传参以单用户模式启动,直接无密码登陆器。 有些人习惯给/boot一个128M的小分,可能是老师的老师说过这样比较“”。那是在更早的版本GRUB程序读不了GB级磁盘分,没办法加载vmlinuz内核,现在已经只是一个迷信而已。 5.内核启动加载驱动,但这还没触及任何业。 不同硬件同一个版本的vmlinuz内核hash值是相同的,因为驱动信息放在initrd*.img里。Initrd*.img是一个精简但带了所有驱动的linux镜像,一般系统装完之后自动生成,也可以事后手动生成。
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
金****洲 2018-07-09
百度实验室|机器学习对抗性攻击报告
同 时,它也成为攻击者的目标,导致应用机器学习的产品和网络不可依赖。GeekPwn2016 硅谷分会场所揭示的是顶级专家对机器学习方面的担忧。随着 一个个应用场景被轻易的攻破,尽管目前只是在语音,图像识别等场景下,我们可以清 醒的认识到,当这些场景与其他相结合的时候,攻击成功的严重后果。人工智能作 为未来智能自动化不可缺的一个重要部分,已然是行业与黑产攻击者抗争的 新战场。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,保你心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。
红****2 2018-07-10
故障自愈机器人,保你心好睡眠
直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户信任度下降、给竞品占领市场机会等。 单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设施故障:物理机房故障、网络链路拥塞、流量转发基础设施故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24小时值班,接收大量的报警,随时准备在紧急情况下进行响应、决策、操作一系列故障止损动作,尽量挽回损失,降低故障影响。 但上述解决方案会面临如下问题: 响应可能不够迅速:例如间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。
追****圣 2018-07-11
给书记省长讲清楚云计算
本文含如下内容。 从大时代背景来看什么是云计算,云计算为什么会兴起。 云计算如何带动地方经济,这是个不需要物流就可以球的行业。 做云计算要满足哪些条件,如何才能筑巢引凤。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 云计算不是万能药,它无法解决哪些问题。 什么是云计算 近20年来,互联网引爆了球的信息技术革命,我国借助这技术革命的大好机会,已经追上乃至领跑此技术革命。 互联网技术深刻的改变着我们的生活,其行业生态也在逐步分化扩大,这一现状客观促进了云计算技术的发展。 上世纪80年代,计算机仅应用于科研等数行业,国计算机从业人员不超过万人,从业人员大都有很深的学术背景。 上世纪90年代,门户、论坛、邮件系统开始影响部分群众的生活,国内从业人员约为十万人,可以分为软件和硬件两类工程师。 进入2000年,无纸化办公、游戏、社交、电商改变了大众的生活的方式,国内从业人员已经远超百万,技术分类有数十种工程师。
p****d 2018-07-11
单机房故障自愈--运维的春天
期望能够在不超过容量保护的情况下进行尽可能的调度,减对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完可信。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 水位线:流量处于在线以下则风险较小,可以一步进行切换。 水位上限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。 如果水位线提供的容量不足以满足止损,那我们期望使用上两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低生故障发生的概率。 基于降级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,实现故障的恢复。
TOP