关于 外围女保健包夜_v信78792796部县按摩有服务曾 的搜索结果,共1137
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、署情况、实例运行状况如何? 2.我从哪里来? 的上游哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些括:在机器上息(机器IP,署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
疏****月 2018-07-09
一键上线Archer | 百度持续署的瑞士军刀
,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层。 通用场景 在百度内,通用的署系统需要适用于以下场景: 各业线拥各自的规范,语言、框架不统一,署策略不一致; 支持分级发布,及时拦截署引入的线上故障; 业的多地域署; 多种网络环境及大署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+署插件几分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用署插件执行实际任。涉及大及不同网络环境的署会进行中转下载。 解决方案 各业线拥各自的规范,语言、框架不统一,署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的规范。
流****水 2018-07-11
度云企业级运维平台——NoahEE
资产管理 在机房里,各种各样的器、网络设备和安全设备7x24小时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在大型互联网公司中,单机房故障因为其故障时间长、影响范大,一直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内网络环境建设了基于智能流量调度的单机房故障自愈能力。结合网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例全署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范内,单机房故障会给产品线带来全局性影响。
布****五 2018-07-10
如何执行一条命令
署升级 DevOps的概念如今日趋流行,署升级越发成为开发运维过程中重要的一环,频繁的交互意味着频繁的署。署过程可以拆解为两个小的步骤,一是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Master端主要做复杂的任调度和管控逻辑,并且所功能都是模块化设计,用户可以根据自己的需求定制安装,括虚拟化容器管理,应用管理、署、扩缩容、拓扑搭建和活,集群控制等。 Agent端则以简单为原则,弱化繁琐功能,仅作为任的执行器,其中的supervisor组件,结合父子双进程原理,做到自升级和自活,把云运维人员的工作量降到最低。 整个系统的工作流程也十分简洁优雅!Agent通过定期心跳的方式,与Master进行通,在心跳发中发送本机状态息,在心跳回中获取Master期望的本机状态plan,并把期望plan与本地实际plan进行对比,针对差异的地方做相应修改,使二者持一致,从而证集群中所机器最终状态一致。 总之一句话,一朝HALO在手,从此不用发愁。所运维需求,直接调用接口。 结 语 为了防止大规模集群被破坏,为了护集群世界的安全,贯彻高效和简单的运维理念,这就是我们新一代的基础设施管理引擎HALO。 亲爱的读者如果你看到这,恭喜你在意义的事上花费不止1分钟。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目任云厂商。客户精力就做多云冗余校验,预算就做专资源池署;未来云厂商还会自定义SLA标准——大分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以,大分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至分程序崩溃的稀里糊涂。
追****圣 2018-07-11
给书记省长讲清楚云计算
器就是高功耗高价格的专业电脑,云计算企业的采购规模一般远大于政企集采,他们能从硬件厂商那里拿到极限低价,政府和国企能提供的更多是采购资金的支持。 云计算是一个商业,不仅需要硬性支持,还需要足够的环境和政策支持。当前云计算公司聚集在一线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网署在本地会极大的管控压力。二三线城市对互联网还只是简单的管控,稍不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你市场客户那对方会主动上门寻求合作。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没领头羊企业和事实标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,小量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间限,因为企业里已经数据库和DBA了,DBA并不任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
若****客 2018-07-10
IT架构的本质--我的五点感悟
在一个数据生命周期内,为了防止数据全分凭空消失,数据的容错校验、关联复原、冷热备份和安全删除都要考虑到位。 在生僻业的规划实施过程中,没人告诉我们该哪些,我们只能靠摸透一个又一个访问逻辑图和数据生命周期,来摸索群集内哪些角色和依赖关系。 架构师的核心技能括画好访问逻辑和数据流量图,因为问题现状描述清楚了,问题就解决了一多半了。一个好的业访问逻辑图,不仅仅是几个圈圈几条线连起来,其息量大到罗访问过程的所元素,也要详略得当高亮关键点。 5. 各环节都不可盲 容灾设计中都尽人事和听天命 整个IT系统中就没可靠的组件,架构师既不能盲目任撞大运,又不能无限冗余吓唬自己,而是在尽人事和听天命之间做好权衡。比如TCP就是要建立可靠链接,而现在做性能优化的时候,大家又嫌TCP太过笨重了。 业应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意崩溃都是可以接受的。 支撑性不可靠,对于大分业,预估一年都不丢一次数据,SLA能到99.95%就可以了。
p****d 2018-07-11
单机房故障自愈--运维的春天
基于内网监控、基础监控、业监控提供的故障号;触发内网止损决策器进行止损决策;执行流量调度、主备切换、弹性降级等止损操作。 单机房故障自愈的常见问题和解决方案 传统的流量调度自动止损方案存在如下问题: 1容量风险控制能力不足 【问题描述】 传统流量调度的模式两种:固定比例模式与容量护模式。 固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切流量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充足,容量充足则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍buffer可以进行分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更小,甲方无法触及云厂商能倒腾出故障的门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择任能个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 个客户非常任某个小云销售,他告诉该销售,虽然某大云高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该小云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
其他客户内门会挤兑欺压这两个门,而已经入的云供应商不会太介意这些门的态度。 我举个偏点的例子,一个造纸厂的IT说,虽然开源社区的邮箱方案简单又免费,但他还是会买商业邮箱。他自己搭出来的免费邮箱会天天人挑刺说不满意,而他买商业方案以后,谁意见谁就去找老板请款买新模块,反而落个清静。 我们并不介入用户内管理问题,但我们要把客户变成朋友,而不是做一个冷脸旁观的衙门。 4.推进业的能力 无论是个人技术革新业绩,团队节省成本业绩,还是内工作流改善,甚至对能力优化,都是帮推进客户的业,帮客户出政绩。 客户很容易会异想天开,我现在更多是说他们的想法达不到出政绩的目的,大鸣大放后黯然收场,对客户也不是好事。 传统IT企业在198X年成功崛起,是因为他们的技术帮客户延伸了业能力,比如用ATM机帮银行拓展柜台、用更好的技术算账和转账;最近十几年则只能靠拿软硬件升级来从客户手里套钱,上那些IT系统只是命续命却诞生不了新生命。 希望云厂商能够引以为鉴,我也在摸索如何帮客户真正意义上推进业。 人员需求 客户需求不能靠谦卑的态度来引导,而是可靠IT技能方案的输出。
TOP