关于 天等县找小姐服务〖8843O306VX〗服务真实世允衅赂灿 的搜索结果,共1028
h****e 2018-07-10
程序:我从哪里来?
通过部署在机器上的客户端感知到例的状态变化(比如例状态由0变成-1,即正常变成非正常),并将数据同步到系统中的分布式缓存,上游模块可以通过查询redis.noah.all的例状态结果,主动过滤非正常的例,也可以在BNS系统中发起屏蔽故障例的操作,在查询过程中会自动过滤该故障例。 在下一节中将具体介绍BNS系统的整体架构。 基本架构 BNS系统主要包含几个部分:流量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础,BNS系统每的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行例信息注册。为了保证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下两个功能: 流量鉴权:每一个组、单元、例的注册都需要进行权限验证,用户只有申请了合法的Token才能许访问,另外系统还提供了白名单其他的鉴权方式。
w****0 2018-07-11
单机房故障自愈-黎明之战
那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。 单机房故障止损流程 一个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
流****水 2018-07-11
度云企业级运维平台——NoahEE
灰度测试难,怎样通过灵活的部署方式,先进行流量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。在部署管理模块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作,在部署的过程中发现问题即可暂停并回滚至之前的状态。除了部署操作,部署管理模块还提供了批量执行命令操作(比如批量启停某一)。如图来总结部署系统的能力: 图4 部署管理 监控管理 在任何工作里,信息掌握的全面与否往往关乎到工作的成败。“知己知彼百战不殆”这句话说的就是这个道理。运维工作中,监控系统就是这个让我们做到这点的关键。软硬件是否工作正常,出了问题是否能及时发现与报警,甚至是对异常事件进行提前预测,都仰仗监控系统。在NoahEE的监控管理模块中,你可以期待全面的各种监控相关功能,包括了采集Agent、强大的汇聚计算与指标派生、灵活的报警机制、高效的时序数据库(TSDB)
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
一、裸光纤的故事 前几和朋友聊,谈到一根裸光纤可以分波分多大的问题。 几个业内好友都明确说一根裸光纤最多跑10G带宽,而于老板明确表示裸光纤任何一个波分(或者不做波分)都可以跑100G以上。 后来我和于老板深究原因,不可能几个朋友都骗我或者都蠢,很可能前些年光纤波分机自己只能甩出10G口,或运营商租光纤套餐里只有10G规格,给大家造成了裸光纤只能跑10G带宽的印象。同样固有的印象是光纤必须从运营商那里租,而且价格很贵还必须买波分设备;其现在企业专线的市场竞争很充分,拉同城裸纤一公里也就几百块钱,而且短距离裸纤也不值得上波分设备,直接对接模块即可。 二、NTD是试金石 我对裸光纤是门外汉,但同样的技术误解让我想到了NTP,我一直拿ntpd和ntpdate当做初中级系统工程师的试金石,分不清就月薪五千,分得清就八千以上(2014年市价)。但很多货的IT专家也在此事上跌倒,我也希望通过聊清楚一层误会,说明高级工程师该少迷信多思考。 NTP是网络时间协议,它是多项传输、计算、加密技术的核心参数。
M****点 2018-07-10
中国云计算现状——产品篇
先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一时一千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为型云计算企业因为资质、高层合作、客户关系原因没有投标的机会。 我们经常遇到咨询标,但我们也不想投这个标。咨询标的交付物就是各种文档和报表,互联网公司的技术积淀都在技术部,技术人员最烦的就是写文档,而且技术人员匮乏的想象力和沟通能力并不适合做咨询标,让售前承担技术文档书写也扛不住。传统IT外企做云IT咨询流程上没问题,但技术水平太差,也不被政策扶持。此外还有个哈哈哈哈的大杀器让我们不能投咨询标,投了咨询标就不能投施标了,施标的金额要比咨询标大很多。 到了施阶段,其矛盾和咨询标差不多,既要干活又要写文档,而且验收者并不专业,施工作有传统厂商会抢着压价,还会有各种意外拖进度抢进度,各互联网企业的施团队根本支撑不下来。传统厂商虽然压价抢标,但他们要是有能施云计算项目的人才,互联网公司加价三倍挖走谢谢。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统一的包结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可按照单例、单机房、单地域级别设置暂停点,并支持部署过程中进行暂停、继续、重试、撤销操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件中设置配置变量,并在特定地域(机房)中生成特定配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据中转传输。采用中转的上线在发起任后,部分代码将首先被转存至中转机上。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****d 2018-07-11
亿元级云用户分析
3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列的模板化云主机,决定资源池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资源池的包装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家有本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能有多种方式,如sftp的集中式,p2p的点对点式。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的时信息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今我们的主题“如何执行一条命令”的意义所在。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。
小****园 2018-07-10
让PB级云存储不再神秘
厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。考察案例性的方法主要靠听对方能否自圆其说,甚至让多个厂商当面质疑,能逻辑自治的厂商终归还是靠谱一些。 大客户对云端数据的处理的要求比中客户更简单,因为复杂业功能可以自己做,还可以要求厂商为自己做定制开发。 大客户的数据一般都是存在于旧系统的,其迁移方案比客户复杂,拉专线、寄设备、追增量、切业方面都要考虑到。一般迁移方案是现有数百T数据,规划未来3年到10PB,数十个轻量应用对接代理网关继续使用,几个核心高负载应用改成直接访问存储。为了更好的发挥对象存储优势,厂商还要诱导客户使用云平台的各种新功能。迁移方案要靠谱必须说清楚所依赖环境、操作时间规划、各步风险评估、验证验收标准信息。 大客户同样在于云平台的职业操守,但其反击能力要强于中客户,因为他们不会用云平台的标准合同,而是自己订制合同内容。
追****圣 2018-07-11
给书记省长讲清楚云计算
对于四线城市政府和中型国企,因为现困难资源有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资源。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
ToB产品经理的岗位需求太少、对人的要求太高、出业绩太难,又难有超高收益,为什么不踏踏的继续做团队管理、做研发售前、做解决方案? 如果你的团队运气好,遇到一个合适的产品经理,请容忍他短时间不出活,请容忍他拒了客户需求,请容忍他给研发添工作量,因为合格的产品经理要背负和团队负责人一样大的选型责任,他名字叫产品经理,但本质上是软件和设计师。
w****t 2018-07-10
AIOps中的四大金刚
但在复杂场景下的故障处理、变更管理、容量管理、资源过程中,仍需要人来掌控决策的过程,这阻碍了运维效率的进一步提升。而AI方法的引入,使得机器能够代替人来做出决策,从而让正意义上的现完全自动化成为了可能。 在AIOps的落地施过程中,最关键的因素还是人,即AIOps的建设者们。 AIOps作为一个全新的技术发展和应用方向,并不是简单地说具备某一种技能或招募一两个大牛就可以完成的,它需要不同角色、多个团队的配合才可以达成。根据近几年来整个业界对AIOps的理解和践,AIOps参与角色的划分也越来越清晰。在百度4年的AIOps践中,我们总结得出了如下四种不可或缺的角色: 运维工程师 运维研发工程师 平台研发工程师 运维AI工程师 可以看到,除了运维AI工程师外,其他角色并不是AIOps产生之后才出现的,他们在传统运维中也发挥了重要作用。我们今主要想和大家探讨一下,在AIOps时代,他们的职责究竟发生了哪些变化。为了方便大家理解,我们会基于百度AIOps的践案例,来进行具体说明。 单机房故障自愈场景 单机房故障自愈是一个典型的AIOps落地项目。
若****客 2018-07-10
IT架构的本质--我的五点感悟
各角色分工明确方便快速现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个逻辑需求会导致后端大规模联动,不同也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。 我们要搞架构设计最重要的就是砍需求,将上层应用的需求优化删减,让同级的业能容错。上层需求优化,即前端对后端少输入少查询多容错,而同级容错可以看做应用间的需求优化,比如两个可以幂重试就是好解耦,而A系统会B系统到死锁就是架构悲剧。 某电商ERP系统的用户点一次查询按钮,后台系统就锁库查询一次;操过程中系统越慢用户就重复点查询按钮,而并行查询越多后台速度就更慢。这种环境要搞架构优化,首先要理解自然人并不要求时数据,ERP客户端限制每15秒才能点一次查询按钮,在Web接入层限制每个Session每分钟只能查询一次,还可在数据库链接类库上做一层控制策略。
TOP