关于 全套服务原州找妹子上门41435693】wck 的搜索结果,共888
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 游有哪些,不同的游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专讨论过)。一般的业线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键线部署系统——Archer。Archer致力于提供一产品线过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例。这个例中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收亿的,但定个1000万的小目标是能实现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了真理 3.4人力资源池 亿元项目不可能是客户自助实施的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损千万。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也无法使得恢复正常。
追****圣 2018-07-11
给书记省长讲清楚云计算
前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动寻求合作。从长周期来看云计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第一类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极小风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手里抢单。地方政企和这类企业合作时有很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术有哪些优势,而项目的推进落地都是要靠云厂商来执行的。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
附录2:网到一个写NTPD和ntpdate的水文和本文内容有些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物有所值,但巧妇难为无米之炊,始资源投入不够云就不可能很稳定。面向中小客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对大客户时会很坦诚。 作为持久共生的大甲方,请关注乙方的成本红线,买家永远没有卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,小云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会个其他因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更小,甲方无法触及云厂商能倒腾出故障的部。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭电信接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
当前云计算技术的势头很好,但因为技术和市场等因还需要慢慢发展,而且云计算做的是“锦添花”的事情,企业用不用云计算对自身业功能影响不大。我们运维人员从做事的可靠性、有局意识,凭借这些特性仍然能活的很好。运维这个岗位可能会消失,但做过运维的人还是有很多路可以走的。 大家都知道黑云压城也该未雨绸缪了,如果你已经是个运维老鸟或者很快就投身运维工作,我建议大家往这几个方向动动脑: 1、企业采用公有云方案后,仍然需要一个懂行的人解决公有云平台的监控、评估、采购、报修这类问题。但这个职位应该一个公司公司只需要一个人,且再等十年云计算彻底标准化后还会再次消失。当然了,我相信能胜任这个岗位的人,在云计算已经规范到不需要专人维护的时候,他们也会有能力到更合适的岗位。 2、进行云计算器维护;几大云供应商自己也要维护器,那些大中型企业肯定会自己做私有云,在这个云计算平台里也是需要运维人员进行从低端监控到高端架构的一系列维护工作,但自动化运维技术会让运维人员的数量大大减少,可能每个公司都只有一两个小团队了。
M****点 2018-07-10
中国云计算现状——产品篇
某些云主机的超卖比过高,性能太差,又因为各种因不更换云厂商,那只能基于性能因用物理机。 某些硬件特性虚拟机还没模拟出来,或者你模拟了我也不信,比如说Oracle RAC就偏爱硬件存储。 某些非TCP/IP资源必须接专用板卡,比如说接电话网络的器,接专用器材的器,接加密狗的器。 非技术因素必须用物理机,比如说某软件查不出问题来怪虚拟机,为了避免麻烦给它们特地安排了物理机。 为了利旧等因接着用物理机,有些单位的电费是行政部负担的。 既然要用物理机,要和虚拟机联动就要用混合云。混合云就是用专线打通两朵云,或者让物理机和虚拟机内网互通。肯定有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么能做好跨云的资源调度。 既然谈到了混合云,肯定就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
其他客户内部部会挤兑欺压这两个部,而已经入围的云供应商不会太介意这些部的态度。 我举个偏点的例,一个造纸厂的IT说,虽然开源社区的邮箱方案简单又免费,但他还是会买商业邮箱。他自己搭出来的免费邮箱会天天有人挑刺说不满意,而他买商业方案以后,谁有意见谁就去老板请款买新模块,反而落个清静。 我们并不介入用户内部管理问题,但我们要把客户变成朋友,而不是做一个冷脸旁观的衙。 4.推进业的能力 无论是个人技术革新业绩,团队节省成本业绩,还是内部工作流改善,甚至对外能力优化,都是帮推进客户的业,帮客户出政绩。 客户很容易会异想天开,我现在更多是说他们的想法达不到出政绩的目的,大鸣大放后黯然收场,对客户也不是好事。 传统IT企业在198X年成功崛起,是因为他们的技术帮客户延伸了业能力,比如用ATM机帮银行拓展柜台、用更好的技术算账和转账;最近十几年则只能靠拿软硬件升级来从客户手里钱,那些IT系统只是保命续命却诞生不了新生命。 希望云厂商能够引以为鉴,我也在摸索如何帮客户真正意义推进业。 人员需求 客户需求不能靠谦卑的态度来引导,而是可靠IT技能方案的输出。
M****H 2018-07-11
故障定位场景下的数据可视化实践
基于面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩小故障范围,到故障根因: 局问题定位:快速确认线状态,缩小故障判定范围。为可能的止损操作提供判断依据。本文会介绍如何构建一个景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进一步缩小问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:一些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如线变更、运营活动导致的故障。本文针对导致故障占比最高的变更线类故障进行分析,看如何快速到可能导致故障的变更事件。 景掌控缩小范围 对于一个乃至一条产品线而言,拥有一个布局合理、信息丰富的景监控仪表盘(Dashboard)对于状态景掌控至关重要,因此在百度智能监控平台中,我们提供了一款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自由灵活的组织仪表盘布局,配置所需要展示的数据信息。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
AHALO称Hybrid-cloud Application Layout and Operation system,顾名思义,它是私有云或混合云环境中的基础设施部署和集群控制系统,是混乱集群中的第一束光,让无序的集群世界变得有序可控,是云最底层的基石,肩负着裸机环境配置,root域权限控制和智能托管基础设施的重任。如果没有HALO,集群机器将处于失控的状态。它屏蔽了云底层繁杂的管控逻辑,提供简化接口给层系统NoahEE调用,使层系统更好更快地释放价值。 Q这么优秀的系统到底是如何实现的呢? AHALO系统采用主从架构,分为Master端和Agent端。 Master端主要做复杂的任调度和管控逻辑,并且所有功能都是模块化设计,用户可以根据自己的需求定制安装,包括虚拟化容器管理,应用包管理、部署、扩缩容、拓扑搭建和保活,集群控制等。 Agent端则以简单为则,弱化繁琐功能,仅作为任的执行器,其中的supervisor组件,结合父双进程理,做到自升级和自保活,把云运维人员的工作量降到最低。 整个系统的工作流程也十分简洁优雅!
TOP