关于 解易找服务上门按摩小妹 78792796-微V号广州东环保健足 的搜索结果,共1081
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专讨论过)。一般的业线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键线部署系统——Archer。Archer致力于提供一套产品线全过程的可迁移发布决方案,实现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等全过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次线的操作入口,这种设计模式也决定了其于集成的特点。在DevOps流水线作业中,Archer可以作为一个节结合进整条测试发布流水线中。
h****e 2018-07-10
程序:我从哪里来?
4客户端 BNS系统主要包含两个客户端:查询客户端和康检查客户端,我们分别用Naming Agent和Check Agent来代指两个。 客户端部署在所有的机器,并提供命令行工具和丰富的SDK以及各类插件,方便用户在各个场景使用。 Naming Agent:提供BNS的查询功能,用户可以根据一个名字(组、单元、实例)就能得到详细的信息。Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS实例的康检查功能,用户通过在Web页面对每一个实例配置康检查的方式,机器的Check Agent会主动探测所有实例的运行状况,并将康检查的结果报给Cache层,同时更新数据库内容。 总结 BNS系统满间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,决了程序“我是谁?
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了决这类问题,我们针对百度内外部网络境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
p****d 2018-07-11
单机房故障自愈--运维的春天
单机房故障自愈的常见问题和决方案 传统的流量调度自动止损方案存在如下问题: 1容量风险控制能力不 【问题描述】 传统流量调度的模式有两种:固定比例模式与容量护模式。 固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不,切流量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充,容量充则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。
追****圣 2018-07-11
给书记省长讲清楚云计算
器就是高功耗高价格的专业电脑,云计算企业的采购规模一般远大于政企集采,他们能从硬件厂商那里拿到极限低价,政府和国企能提供的更多是采购资金的支持。 云计算是一个商业,不仅需要硬性支持,还需要够的境和政策支持。当前云计算公司聚集在一线大城市,境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动寻求合作。
若****客 2018-07-10
IT架构的本质--我的五点感悟
架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3. 理硬件天性 角色选型时要看硬件的天然特性 别让硬盘扛性能,别让内存持久,别让网线扛稳定。 架构层软件技术已经够成熟,所谓技术选型不如说是适应场景;在做具体角色选型时,最深度也最忽视的原则是顺应硬件天性。 我的精神导师说过,如果一个依赖硬盘,那这个就不适合扛性能压力。我经常将读写引到/dev/shm;SSD盘让很多细节调优聊胜于无,还让Fat32枯木逢春;个别队列和分布式存储在意硬盘的性能力,但都是应用了顺序读写内容,且不介意磁盘空间浪费。
s****7 2018-07-10
知著看技术误——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联网公司和亿国家级项目里用ntpdate+crond,一代架构师为什么有这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留够容量(如节日、运营、假期)。 4.关联强耦合 描述:下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的下游之间无法进行快速的流量调度止损。 要求:线关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的下游连接方式以实现下游依赖耦,下游发生单机房故障,可以快速调整路由比例实现止损。
流****水 2018-07-11
度云企业级运维平台——NoahEE
图1 NoahEE概览 接下来,我们把这艘诺亚方舟分开来,近距离观察一下这艘船的方方面面。 管理 我们首先介绍管理是因为管理是整个运维工作的基础,也是NoahEE这个平台各个系统能够进行批量自动化操作的关键。管理这个概念的出现,是随着业快速膨胀的必然,其要决的主要问题是一个“量”,或者说“规模”的问题。在早期业较为简单时,一个可能部署在几台甚至一台机器,进行变更等运维操作简单直接,登录到机器人工操作就好了。随着业的发展,分布式应用与广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。 举个例子,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资源在哪里。在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部(资源的隔离)?权限又该如何控制?
s****d 2018-07-11
亿元级云用户分析
IT决策人要重度考量IT部利益,这就是云销售和售前的工作重点了,售前和销售要安抚IT决策人的顾虑,尊重客户IT部的权益: 业方案的IT可行性 新架构带来的新责任 新项目带来的新权益 云迁移的隐性成本 技术锻炼的团队收益 新愿景带来的团队增效 工作量转移的减员压力 IT方案决策人明确项目的过程、执行人和验收标准,但从云供应商角度看,搞定方案决策人是项目正式启动,不代表项目能完成验收。 2.3 IT技术执行人 各类具体干活的工程师架构师,他们对云的过程全程参与,从自身立场品味着云项目的利害关系和云产品的使用感受。每个公司境都不相同,他们可能强力推进项目,也可能暗地里阻塞实施,大部分情况下是被动拖沓进度,但合理引导很容积极配合。他们的诉求更简单直白: 操作的简便清晰不出错 建设和维护的劳累程度 云IT技能的个人稀缺含金量 云对旧有烂工作的放 云对个人基础技能的替代 稳定故障清晰 汇报汇总展示方便 要想让IT技术执行人成为云厂商的好帮手,工程进度靠项目经理配合,资源协调靠销售配合,技术操作类诉求靠售前引导。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前文所述,对于单机境来说,这三个问题在前人的努力下已经被很好的决。可是如果要在几十万台机器每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行境。
TOP