关于 全套服务团风找妹子上门43501393】eww 的搜索结果,共911
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 游有哪些,不同的游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专讨论过)。一般的业线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键线部署系统——Archer。Archer致力于提供一产品线过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
(这些运营问题都是2015年的,可能略有老化) 案例3.客户被同集的云计算公司的欲哭无泪,我们接盘时提了一大堆需求,我同样是拒的比接的多。客户问能利旧设备么,我认为利旧设备的配置都太高啦,还不如租我们的廉价器。客户要我们按照旧接口去定制开发,我指出用我们的SDK对接只有半个人日,而旧接口连文档都没有只能猜。客户要我们派几个高工长期驻场,我说明所有故障都可控且已演练,远程排障我们有10个高工主程,但长期驻场我们高工得抑郁离职了。客户担心日常无事可做了,我们就帮客户做了月度巡检流程,但整个流程我们程不参与,他们巡检成功就是双保险,忘了巡检也有我们的监控兜底。 案例4.有公有云客户说要买最便宜的带宽,但最终沟通发现对方是要做非核心日志传。云平台默认的计费规则是行带宽免费,但免费不限流的行带宽不承诺SLA。最终结果是建议客户短期内买几十台低配云主机,同时做好客户端容错,长期看建议这些日志直接传至对象存储,还能配合我方大数据做MR。 案例解析 云计算主要企业客户,企业客户内部分为采购、技术、业、管理等多个角色,在本案例中的技术和运营队是非常讲道理的。
流****水 2018-07-11
度云企业级运维平台——NoahEE
管理这个概念的出现,是随着业快速膨胀的必然,其要解决的主要问题是一个“量”,或者说“规模”的问题。在早期业较为简单时,一个可能部署在几台甚至一台机器,进行变更等运维操作简单直接,登录到机器人工操作就好了。随着业的发展,分布式应用与的广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。 举个例,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资源在哪里。在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。
s****d 2018-07-11
亿元级云用户分析
IT决策人要重度考量IT部利益,这就是云销售和售前的工作重点了,售前和销售要安抚IT决策人的顾虑,尊重客户IT部的权益: 业方案的IT可行性 新架构带来的新责任 新项目带来的新权益 云迁移的隐性成本 技术锻炼的队收益 新愿景带来的队增效 工作量转移的减员压力 IT方案决策人明确项目的过程、执行人和验收标准,但从云供应商角度看,搞定方案决策人是项目正式启动,不代表项目能完成验收。 2.3 IT技术执行人 各类具体干活的工程师架构师,他们对云的过程程参与,从自身立场品味着云项目的利害关系和云产品的使用感受。每个公司环境都不相同,他们可能强力推进项目,也可能暗地里阻塞实施,大部分情况下是被动拖沓进度,但合理引导很容易积极配合。他们的诉求更简单直白: 操作的简便清晰不出错 建设和维护的劳累程度 云IT技能的个人稀缺含金量 云对旧有烂工作的解放 云对个人基础技能的替代 稳定故障清晰 汇报汇总展示方便 要想让IT技术执行人成为云厂商的好帮手,工程进度靠项目经理配合,资源协调靠销售配合,技术操作类诉求靠售前引导。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也无法使得恢复正常。
追****圣 2018-07-11
给书记省长讲清楚云计算
前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动寻求合作。从长周期来看云计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第一类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极小险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手里抢单。地方政企和这类企业合作时有很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术有哪些优势,而项目的推进落地都是要靠云厂商来执行的。
小****君 2018-07-11
踏云落地--谈IT就业趋势
IT行业必然会随着云产品和生态的变化发生巨大改变,下图为我的推演总览: 第三.单纯快乐的基础操作员云计算想要解决IT人力短缺问题,但云的降槛功能,引爆了企业更多新项目需求,让整个社会的IT人力更加稀缺。云厂商本来想着云了就可以挤掉操作员的工资了,但实操几年下来倒是越搞人越多:打网线装系统的队只管理50台物理机,但是云后要管理2000台虚拟机啊,工作不仅保住了还更轻松了;做黑盒测试的队过去只测试10款手机,用了移动端测试云,一天可以测500款手机;做鉴黄标注的队扩大了3倍,以前怕险没开放的功能都重新开放了,过去只鉴黄现在要鉴政了;出大数据报表的队,做报表的频率从每周一次变成了每天三次,还要人工写分析报告了。因为云而失业的操作员都是笨死的,网约车是会抢黑车生意,但脑正常的黑车司机都会去开网约车。我们从大局考虑,行业改革者都没必要刻意针对低端岗位,这些从业人员的成本低没油水,又任劳任怨态度好。如果云厂商的最终目标就是替代低端需求,这个目标不仅笨而且穷,还绝对不会成功。企业IT项目逐渐从数量增长转为质量增长,消化不了那么多操作工,他们的人数不会有爆炸式增长了。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电信接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
p****d 2018-07-11
单机房故障自愈--运维的春天
本篇主要介绍单机房故障自愈的具体解决方案,内容包括: 单机房故障止损的能力标准 单机房故障自愈的整体架构 单机房故障自愈的常见问题和解决方案 单机房故障止损的能力标准 在单机房容灾能力、故障发现能力、流量调度能力基础,业线具备了通过流量调度进行单机房故障止损的条件。理想情况下,我们希望构建一完整、自动、智能的自愈方案,但各个业线的特点不同和基础能力参差不齐,很难一蹴而就,所以我们建立起一自愈能力的等级标准,业线根据自身情况制定相应建设计划,逐步提升自愈能力。 自愈能力等级标准划分为5级,从Level 0的完人工止损,到Level 4的自动化、智能化止损。对于Level0、Level1,人工感知止损面临着速度慢、误操作、场景覆盖不险控制能力不足等问题;、Level2则实现了止损操作的平台化、预案化,一定程度提升了止损效率;Level3则实现了自动化报警联动故障止损,实现了止损效率的进一步提升。2016年,百度大部分核心产品线已经实现了Level 2、Level 3的自动止损能力,但在场景覆盖与险控制仍存在不足。由此,Level 4智能自愈方案应运而生。
M****点 2018-07-10
中国云计算现状——产品篇
而AI类PaaS类似于对象存储,用户本来要靠人肉识图,那些非结构数据本来是不存储的,程序员很乐意去调AI和存储接口,砸碎人肉识图队的饭碗才能成自己的业绩。云替代方案会被客户技术人员苛责,而技术人员会对云新出的方案很宽容。 CDN是最早出现也是最成熟的云计算,它有下列迷人的特点给云计算行业的未来立下标杆: 客户没有学习成本,肯付费、懂IT常识就能接入,所有客户都认同使用CDN能节省成本提高质量。 客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和实质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,大不了切走就行,甚至有专的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨大蛋糕。 关于Serverless的介绍,我建议大家搜一下ZStack张鑫的那篇文章。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
附录2:网到一个写NTPD和ntpdate的水文和本文内容有些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
TOP