关于 自贡找红灯区上门服务〖8843O306VX〗服务真实几冠抵胰饶 的搜索结果,共1209
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的个问题。 问题 1.我是谁? 叫什么,包含了哪些例,规模、部署情况、例运行状况如何? 2.我从哪里来? 游有哪些,不同的游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器部署信息(机器IP,部署路径,配置,端口信息),例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
w****0 2018-07-11
单机房故障愈-黎明之战
单机房容灾能力--盲测验收 完成以四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线故障; 业的多地域部署; 多种网络环境及大包部署; 提高动化效率,能够集成测试发布动化流水线。 后面,我们将结合面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了器 目前都荒废了,因为卡得一匹。
红****2 2018-07-10
故障愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与动止损能力。同时,基于时容量与时流量调度动止损策略与管控风险,现了任意单机房故障时业均可快速愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电信接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
一、裸光纤的故事 前天和朋友聊天,谈到一根裸光纤可以分波分多大的问题。 个业内好友都明确说一根裸光纤最多跑10G带宽,而于老板明确表示裸光纤任何一个波分(或者不做波分)都可以跑100G以。 后来我和于老板深究原因,不可能个朋友都骗我或者都蠢,很可能前些年光纤波分机己只能甩出10G口,或运营商租光纤套餐里只有10G规格,给大家造成了裸光纤只能跑10G带宽的印象。同样固有的印象是光纤必须从运营商那里租,而且价格很贵还必须买波分设备等等;其现在企业专线的市场竞争很充分,拉同城裸纤一公里也就小百块钱,而且短距离裸纤也不值得波分设备,直接对接模块即可。 二、NTD是试金石 我对裸光纤是外汉,但同样的技术误解让我想到了NTP,我一直拿ntpd和ntpdate当做初中级系统工程师的试金石,分不清就月薪五千,分得清就八千以(2014年市价)。但很多货的IT专家也在此事跌倒,我也希望通过聊清楚一层误会,说明高级工程师该少迷信多思考。 NTP是网络时间协议,它是多项传输、计算、加密技术的核心参数。
M****点 2018-07-10
中国云计算现状——产品篇
客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,大不了切走就行,甚至有专的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨大蛋糕。 关于Serverless的介绍,我建议大家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为己进行改造,其他强调按需付费的计算只是快速释放资源的小把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,然也给SaaS云预留了位置。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收亿的,但定个1000万的小目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户施的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损千万。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招一个研究这事的工程师,云确也很有意义啊。 夜静人稀,沙子龙关好了小,一气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又微微一笑,“不传!不传!”----老舍《断魂枪》
布****五 2018-07-10
如何执行一条命令
图2简单问题放大后也变得困难 百度目前拥有分布在世界各地的十万台器,并且随着业的不断扩张,这个数字还在持续增长,构建一个高效稳定通用可扩展的命令描述、传递、执行系统在这样的环境中有着重要的现意义。对百度各产品线的用户来说,这样的一个系统,最基础的要求是:执行高效,控制灵活,扩展方便。 1.执行高效: 单机执行,要求能够达到秒级命令下发/执行/结果收集。 集群执行,要求支持同时在10万台并行执行,同时保证集群中每个机器达到单机执行的性能。 2.控制灵活: 单机控制,要求支持暂停、取消、重做功能。 集群控制,要求支持暂停点功能,也即可以在执行到某台器时暂停,等待人工检查确认无问题后可继续执行。 3.扩展方便: 支持插件,要求支持定义执行插件,用户可编写己的插件执行相应操作。 支持回调,要求支持定义用户回调,如任执行失败调用相应回调接口。 除了以的业需求外,一个分布式系统的搭建,还要考虑可用性、可扩展性、性能、一致性等方面的硬性要求。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物有所值,但巧妇难为无米之炊,原始资源投入不够云就不可能很稳定。面向中小客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对大客户时会很坦诚。 作为持久共生的大甲方,请关注乙方的成本线,买家永远没有卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,小云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更小,甲方无法触及云厂商能倒腾出故障的部。甲方只能根据云厂商销售和线的能力和态度,确认己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
小****园 2018-07-10
让PB级云存储不再神秘
云计算是企业,云平台是我们的供应商不是我们的管理者。TB级用户正是业高速发展的关键时刻,我们更要防备某些吃相难看的混蛋。 云存储相对业简单,遇到野蛮运营的问题主要集中在窃取数据、估算业量、恶意不兼容其他这三方面。 窃取用户数据指的是监守者盗后用,要是泄露给第三方那是安全事故可以直接报警抓人,但平台方用用户数据很难抓现行。云存储里大都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端大数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平台确没手段能证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像小保安总共能看到你何时出一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,吹数据量有数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和大致的动作类型,一个新兴企业最好还是把业分散在两个厂商那里,毕竟他们两家不能核对你的账单。
追****圣 2018-07-11
给书记省长讲清楚云计算
器就是高功耗高价格的专业电脑,云计算企业的采购规模一般远大于政企集采,他们能从硬件厂商那里拿到极限低价,政府和国企能提供的更多是采购资金的支持。 云计算是一个商业,不仅需要硬性支持,还需要足够的环境和政策支持。当前云计算公司聚集在一线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动寻求合作。
p****d 2018-07-11
单机房故障愈--运维的春天
水位限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。 如果安全水位线提供的容量不足以满足止损,那我们期望使用两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,现故障的恢复。 2业线止损策略需求差异大 【问题描述】 我们现了基础的单机房故障流量调度止损算法,但在部分业线中仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程中能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个游,多个游的重要程度不同,优先保证重要稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
w****t 2018-07-10
AIOps中的四大金刚
在传统的动化运维体系中,重复性运维工作的人力成本和效率问题得到了有效解决。但在复杂场景下的故障处理、变更管理、容量管理、资源过程中,仍需要人来掌控决策的过程,这阻碍了运维效率的进一步提升。而AI方法的引入,使得机器能够代替人来做出决策,从而让正意义现完全动化成为了可能。 在AIOps的落地施过程中,最关键的因素还是人,即AIOps的建设者们。 AIOps作为一个全新的技术发展和应用方向,并不是简单地说具备某一种技能或招募一两个大牛就可以完成的,它需要不同角色、多个团队的配合才可以达成。根据近年来整个业界对AIOps的理解和践,AIOps参与角色的划分也越来越清晰。在百度4年的AIOps践中,我们总结得出了如下四种不可或缺的角色: 运维工程师 运维研发工程师 平台研发工程师 运维AI工程师 可以看到,除了运维AI工程师外,其他角色并不是AIOps产生之后才出现的,他们在传统运维中也发挥了重要作用。我们今天主要想和大家探讨一下,在AIOps时代,他们的职责究竟发生了哪些变化。为了方便大家理解,我们会基于百度AIOps的践案例,来进行具体说明。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
当前云计算技术的势头很好,但因为技术和市场等原因还需要慢慢发展,而且云计算做的是“锦添花”的事情,企业用不用云计算对身业功能影响不大。我们运维人员从做事的可靠性、有全局意识,凭借这些特性仍然能活的很好。运维这个岗位可能会消失,但做过运维的人还是有很多路可以走的。 大家都知道黑云压城也该未雨绸缪了,如果你已经是个运维老鸟或者很快就投身运维工作,我建议大家往这个方向动动脑子: 1、企业采用公有云方案后,仍然需要一个懂行的人解决公有云平台的监控、评估、采购、报修这类问题。但这个职位应该一个公司公司只需要一个人,且再等十年云计算彻底标准化后还会再次消失。当然了,我相信能胜任这个岗位的人,在云计算已经规范到不需要专人维护的时候,他们也会有能力到更合适的岗位。 2、进行云计算器维护;大云供应商己也要维护器,那些大中型企业肯定会己做私有云,在这个云计算平台里也是需要运维人员进行从低端监控到高端架构的一系列维护工作,但动化运维技术会让运维人员的数量大大减少,可能每个公司都只有一两个小团队了。
TOP