关于 德阳小妹洗浴中心大保健服务〖8843O306VX〗服务真实槐问 的搜索结果,共1325
h****e 2018-07-10
程序:我从哪里来?
Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存,以此降低Cache层的查询压力。 Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所有例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的题。 今天我们一起聊了百度云Noah智能运维产品的BNS系统,目前系统还在持续迭代和优化,若您想进一步了解BNS题,欢迎家积极留言。
红****2 2018-07-10
故障自愈机器人,你安好睡眠
干货概览 在型互联网公司,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的头之痛。在传统的运维方式,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致题扩。 为了解决这类题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安好睡眠一文,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设遇到的常见题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个例或者多个例全部部署在同一物理机房的程序模块即为单点。 题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的题。百度对于这个题给出的答案是,必须先要解决资源组织管理题。简单的说,管理要解决的最核题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子,地图研发的同学就可以在运维平台导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极的简化了运维操作,提升了运维效率。
M****点 2018-07-10
国云计算现状——产品篇
前言 上篇文章《国云计算现状——成本篇》(特号首发改名为《做好云计算要花多少钱》)讲的是成本题,即什么企业有可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从一个老用户的角度谈谈每种云计算产品该如何使用,哪些产品改进是刚需放吐槽,哪些产品有内因就是改不了。本文主要说用云产品的题,买云产品的题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要少被企宣PPT脑,追求华而不的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比有什么特点和局限性,客户明白特点才能使用得应手,客户明白局限性才会早作备用方案,产品经理里不慌才会关注核功能。 一、IaaS产品 IaaS平台的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核组件是云主机,如虚拟网络、云硬盘和安全组都是为支撑云主机业的。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的国市场吸引过来的,也有兼顾外企国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们有什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业题;云计算核员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排题,但其带来的环节能题很严重,每个数据都会占用量电力。 对于四线城市政府和型国企,因为现困难资源有限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个题,如前文所述,对于单机环境来说,这三个题在前人的努力下已经被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量易也难,在构建这样的执行系统的过程要面临诸多困难,此处举几个突出的例子如下: 信息存储题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输题:为了证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行题:为了更好的处理权限、单机并发等单机执行题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
一、裸光纤的故事 前几天和朋友聊天,谈到一根裸光纤可以分波分多题。 几个业内好友都明确说一根裸光纤最多跑10G带宽,而于老板明确表示裸光纤任何一个波分(或者不做波分)都可以跑100G以上。 后来我和于老板深究原因,不可能几个朋友都骗我或者都蠢,很可能前些年光纤波分机自己只能甩出10G口,或运营商租光纤套餐里只有10G规格,给家造成了裸光纤只能跑10G带宽的印象。同样固有的印象是光纤必须从运营商那里租,而且价格很贵还必须买波分设备等等;其现在企业专线的市场竞争很充分,拉同城裸纤一公里也就几百块钱,而且短距离裸纤也不值得上波分设备,直接对接模块即可。 二、NTD是试金石 我对裸光纤是门外汉,但同样的技术误解让我想到了NTP,我一直拿ntpd和ntpdate当做初级系统工程师的试金石,分不清就月薪五千,分得清就八千以上(2014年市价)。但很多货的IT专家也在此事上跌倒,我也希望通过聊清楚一层误会,说明高级工程师该少迷信多思考。 NTP是网络时间协议,它是多项传输、计算、加密技术的核参数。
小****园 2018-07-10
让PB级云存储不再神秘
正让用户头疼的是平台方会根据计费日志估算你的业规模,就像安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,自吹数据量有数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访日志可以看文件数量、用户规模分布和致的动作类型,一个新兴企业最好还是把业分散在两个厂商那里,毕竟他们两家不能核对你的账单。 最后一条就是有些领先厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户自身业的阶段,技术采购决策人请把风险告知公司决策层,该妥协还是硬扛不是你的职责范围。 3、型用户谨慎选型 型用户即使只存储1PB,每年也要花100多万了;型客户只要做选型,而项目不仅要选型和定制,还有更多技术以外的东西要考量。 首先同样说价格题,型客户比客户更难办,客户是嫌价格贵,客户却怕低价砸场。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
对于落是人为导致的故障,甲方单纯的索赔追责并不能解决题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂靠友商更烂胜出的,和IDC/CDN的比优赛无法相提并论。客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复题的销售和人员。 有个客户非常信任某个云销售,他告诉该销售,虽然某云有高层合作,某云也说报价肯定比某云低5%;但是某云的机制有题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐站住了,这份暗相助就是靠个人商誉带来的信任。 我和客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是订单曲线突破的好选项,还是AI和数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户自助施的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损上千万。
w****t 2018-07-10
AIOps的四金刚
在AIOps落地,运维工程师是处于的角色,也赋予了新的职责,他们是AIOps具体施的需求提出者和成果验收者。具体职责包括: 在AIOps时代,运维工程师一方面需要熟悉运维领域的知识,了解运维的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解哪些场景题适合用机器学习方法解决,需要提供怎样的样本和数据,即成为AI在运维领域落地施的解决方案专家。 运维AI工程师 在单机房故障自愈场景,运维AI工程师将机器学习的算法与际的故障处理业场景相结合,针对单机房故障场景的风险点,进行策略研发与验工作。如下图所示: 运维AI工程师分别设计了如下算法策略来满足整个复杂故障场景的自动决策: 异常检测算法:解决故障发现时指标异常判断题,基于AI方法现较高的准确率和召回率,作为整个故障自愈的数据基础。 策略编排算法:基于当前线上的际流量和状态,设计损益计算模型,判断基于何种方式的操作组合或步骤,能够使整个自动止损带来收益最,风险最。 流量调度算法:基于线上容量与时流量情况,进行精确流量比例计算,防御容量不足或不准风险,并现流量调度收益最化。
p****d 2018-07-11
单机房故障自愈--运维的春天
安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最承载能力,一旦流量超过故障水位线,很概率会导致容量过载。 如果安全水位线提供的容量不足以满足止损,那我们期望使用上两条间的容量buffer,同时流量调度过程进行分步试探,避免一次性调度压垮。 基于快速熔断的过载护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,现故障的恢复。 2业线止损策略需求差异题描述】 我们现了基础的单机房故障流量调度止损算法,但在部分业线仍存在较的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个上游,多个上游的重要程度不同,优先证重要上游稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
云计算历经多年发展,从最初的概念模型,到被众熟知,再到现在全行业拥抱上云,取得了巨的进步。云的主要客户已从最初的初创公司逐步渗透到各行各业的型企业。可以说,企业上云已是企业发展的必由之路。部分数据敏感的企业结合自身数据的安全性、所有权和控制权等综合因素考虑,会选择搭建自己的私有云或者混合云环境。 但是在上述环境,用户的机器都需要自行管理,这就必然给云运维人员带来很多意想不到的麻烦。 其我们面临的题从来就没有什么的变化,唯一不同的只是机器规模越来越,人越来越复杂。 Q如何在1台机器上部署基础设施?A 一切都源于那个亘古不变的道理:扔一个文件到机器上,然后跑一个命令。 Q如何在10台机器上部署基础设施?A 写个for循环搞定。 Q如何在10000台机器上部署基础设施?A 这个也好办!定制操作系统镜像CUSTOM.iso装机自动化安装! then…… Q如何快速升级所有机器上的基础设施? Q因异常挂掉,能自动重启活吗? Q公司做活动,预计流量突增,能扩容吗? Q公司活动结束,为节约成本,能缩容吗? Q新开发的基础设施题,能立马回滚吗?
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力了就多做水平复制扩容,在网站类应用上,无状态-会话持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更更难控制。 时改异步是我学的最后一门IT技术,绝部分“时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要时处理结果了。CS模式的时操作会给支撑带来巨压力,Peer合作的时操作可能会让数据申请方等一宿。架构师将一个无脑拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做全局事障。 在群集性能规划,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典微机系统就是央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
TOP