关于 定海找美女妹子【 嶶7746O9O6】特殊服务 的搜索结果,共809
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固的标准并且支持制化,使用Archer进行部署的具有统一的包结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可按照单实例、单机房、单地域等级别设置暂停点,并支持部署过程中进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件中设置配置变量,并在地域(机房)中生成配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据中转传输。采用中转的上线在发起任后,部分代码将首先被转存至中转机上。
h****e 2018-07-10
程序:我从哪里来?
在BNS系统中,单元表示一个的实例集合,一般以三段式的结构表示,比如:server.noah.all,server表示名,noah表示产品线,all表示机房名称,单元的名字在系统中是唯一的。 使用场景 在程序员的日常工作,常常面临以下的场景: 场景 场景一:我是一名OP工程师,负责几十个系统模块的运维,我常常需要登录部署的机器排查问题,但是只知道名,记不住那么多部署信息,怎么办? 场景二:我是一名RD工程师,我负责的需要扩容,我的是很多下游的依赖,的扩容怎么通知给下游模块? 场景三:我的部署实例有一个出现故障了,我想对下游屏蔽该故障实例,怎么办? 下面以一个简单的例来说明,假设一个模块名是Server,它的上游是Proxy,下游是Redis,当出现变更或者故障时,如何让上游感知到呢? 当新增上线实例、下线摘除实例或者实例发生故障时,BNS系统通过部署在机器上的客户端实时感知到实例的状态变化,同时新增和删除实例的变更情况会立即同步到分布式的缓存系统中,这样用户通过一个BNS名字就可以感知到下游的实例变化。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
M****H 2018-07-11
故障位场景下的数据可视化实践
干货概览 百度拥有上百条产品线,数十万的,每个时时刻刻都在产生着量的监控数据,形成的监控项规模总数已达数十亿。面对如此量的数据,在日常运维(如故障诊断、成本分析、性能优化等场景)过程中,传统的统计图表难以有效直观地展示如此庞大的数据。因此,优秀的监控数据可视化产品就呼之欲出,他既要数据准确、全面、时效性高,也需要提升用户的使用体验,使其能在茫茫数据中一眼就能发现想要观察的数据。 那么怎么做才能适应用户需求、完成精准展示,同时又能挖掘数据价值呢?下面我们从故障诊断的场景出发,来看百度智能监控平台是如何充分利用数据可视化武器来解决实际业问题的。 故障位可视化思路 在标准的故障处理流程中,故障位一般可分为两个阶段: 故障止损前:期望可以快速获得可用于止损决策的信息,做出相应的止损操作使得恢复。比如通过确故障范围,调度流量绕过故障机房或摘除故障实例等。 故障止损后:仍需要进一步到导致故障的深层次原因,确故障根因,将线上环境恢复到正常状态。
M****点 2018-07-10
中国云计算现状——产品篇
非技术因素必须用物理机,比如说某软件查不出问题来怪虚拟机,为了避免麻烦给它们地安排了物理机。 为了利旧等原因接着用物理机,有些单位的电费是行政部负担的。 既然要用物理机,要和虚拟机联动就要用混合云。混合云就是用专线打通两朵云,或者让物理机和虚拟机内网互通。肯有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么能做好跨云的资源调度。 既然谈到了混合云,肯就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和实施 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和实施可以让公司增加企业的融资概念和收入构成。中小型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚实。
w****0 2018-07-11
单机房故障自愈-黎明之战
要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要保证变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固IP或固机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固IP或机器名链接,需使用具备流量调度能力的上下游连接方式以实现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。 单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。
s****d 2018-07-11
亿元级云用户分析
云厂商提供四类人力资源: 第一类是方案咨询和项目规划,不要被免费通用售前蒙蔽了视野,出彩的规划咨询重度依赖精英人力,既要是云产品专家又要是客户侧IT高手; 第二是平台侧研发运维,即使最标准的CDN也要制日志接口、微调卡顿和回源比,销售铁三角必须最顺畅沟通最高优先级; 第三是项目侧实施人力,云厂商可以做盖机房到App适配的所有工作,客户只想对接一个总包责任人; 第四是客户挖不来留不住“云厂商母公司的顶级技术高手”,他们想借云项目让高手做人力输出,但是……。 读者们不要觉得卖人日很低端,人力资源是难以垄断和模板化复制的;只有不能垄断的行业,精英打工者才有极大的发挥空间。 4.架构和流程变化分析 大型云用户在上云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和保证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥有DDOS的资源和统一前端的实践经验,还有量廉价优质带宽。
TOP