关于 雅安找小姐妹子服务〖8843O306VX〗服务真实纲痔衣竞凑 的搜索结果,共1015
h****e 2018-07-10
程序:我从哪里来?
在BNS系统中,单元表示一个例集合,一般以三段式的结构表示,比如:server.noah.all,server表示名,noah表示产品线,all表示机房名称,单元的名字在系统中是唯一的。 使用场景 在程序员的日常工作,常常面临以下的场景: 场景 场景一:我是一名OP工程师,负责几十个系统模块的运维,我常常需要登录部署的机器排查问题,但是只知道名,记不住那么多部署信息,怎么办? 场景二:我是一名RD工程师,我负责的需要扩容,我的是很多下游的依赖,的扩容怎么通知给下游模块? 场景三:我的部署例有一个出现故障了,我想对下游屏蔽该故障例,怎么办? 下面以一个简单的例来说明,假设一个模块名是Server,它的上游是Proxy,下游是Redis,当出现变更或者故障时,如何让上游感知到呢? 当新增上线例、下线摘除例或者例发生故障时,BNS系统通过部署在机器上的客户端时感知到例的状态变化,同时新增和删除例的变更情况会立即同步到分布式的缓存系统中,这样用户通过一个BNS名字就可以感知到下游的例变化。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
红****2 2018-07-10
故障自愈机器人,保你心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
M****点 2018-07-10
中国云计算现状——产品篇
非技术因素必须用物理机,比如说某软件查不出问题来怪虚拟机,为了避免麻烦给它们特地排了物理机。 为了利旧等原因接着用物理机,有些单位的电费是行政部负担的。 既然要用物理机,要和虚拟机联动就要用混合云。混合云就是用专线打通两朵云,或者让物理机和虚拟机内网互通。肯定有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么能做好跨云的资源调度。 既然谈到了混合云,肯定就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****d 2018-07-11
亿元级云用户分析
降低成本:客户最直观的诉求,或者削减IT预算,或者同等预算下支撑更多的;其他客户诉求都难以清晰描述,唯独成本可以看发票和合同。 明确责任:客户不想承担各个IT系统的衔接和选型责任,相比软件厂商和系统集成商,云厂商的责任覆盖范围会更广泛一些。 收拢数据:上云本身并不碰业数据,但上云是很好明确业数据存储位置的机会,上云业改造是规范数据结构的理由。 求新图变:企业客户在气势如虹时要居思危,在困境危难之中穷极思变,IT技术是企业的潜在增长点甚至退路。 本文讨论的是有模糊度和利润空间的云计算项目,CDN和IDC资源可以用做计收载体,但不能做为上云目的分析。亿元以上的器、CDN的订单很多但既无技巧也无利润,这些资源厂商也在跟云厂商学习如何包装项目。 2.客户角色利益分析 大企业多角色之间的利益诉求不同,所以表现形式也不同。我将客户三大角色列出来讨论,销售-售前-项目经理铁三角组合明确客户的诉求,才更好游刃有余的客户。 2.1业采购决策人 企业里CEO/COO/CFO或权VP,他们不关注云产品云技术,更关注业上的求新图变,互联网决策人还会敏感IT成本。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常信任某个云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该云快速把业切过来并坐站住了,这份暗中相助就是靠个人商誉带来的信任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让信赖你的客户受伤又受骗。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
流****水 2018-07-11
度云企业级运维平台——NoahEE
举个例,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资源在哪里。在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
前言 沙龙的镳局已改成客栈。东方的大梦没法不醒了。----老舍《断魂枪》 云计算大潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用自己装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
追****圣 2018-07-11
给书记省长讲清楚云计算
当前云计算公司聚集在一线大城市,环境规范稳定但成本极高争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到全国。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
个人产品经理是一个需要梦想和热情的职业,但在政企和工业级IT领域,能力比梦想更重要。 本文是想说清楚,政企和工业级软件领域,能力比梦想更重要,个人产品经理来到这个行业就会被秒成渣。如果一个企业要招产品经理,要知道这个行业有哪些难点痛点,需要什么样的产品经理(其是软件和设计师)。 1. 需求拆解的能力 个人产品经理在设计一款APP时,是可以用生理上的主观感受给产品打分的。但是让一个产品经理来设计个流水线自控系统,他的主观感受并不重要,必须用技术和业能力将客户需求描述和引导。某些产品经理因为自己毫无感受憋不出词来,就把客户的要求当做圣旨跪拜,这不仅是吃里扒外,还是会搅黄项目的搅屎棍。 要拆解客户的需求,必须技术上能跟客户做平等对话,业上了解客户工作流程,还要理解大型客户内部的利害关系,不能靠“视察”客户会议室装专家上宾,也不能像外行一样凡事都跪问客户。 我举第一个例是很多系统都有监控,监控系统的产品经理要完成下列工作才合格: 技术:产品经理对“check tcp 80”和“check http 200”这类业术语没概念,需要客户被坑一次骂一次才能改一点点。
小****园 2018-07-10
让PB级云存储不再神秘
云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。考察案例性的方法主要靠听对方能否自圆其说,甚至让多个厂商当面质疑,能逻辑自治的厂商终归还是靠谱一些。 大客户对云端数据的处理的要求比中客户更简单,因为复杂业功能可以自己做,还可以要求厂商为自己做定制开发。
TOP