关于 剑阁县找小姐保健按摩服务〖8843O306VX〗服务真实操呕由 的搜索结果,共926
h****e 2018-07-10
程序:我从哪里来?
通过部署在机器上的客户端感知到例的状态变化(比如例状态0变成-1,即正常变成非正常),并将数据同步到系统中的分布式缓存,上游模块可以通过查询redis.noah.all的例状态结果,主动过滤非正常的例,也可以在BNS系统中发起屏蔽故障例的作,在查询过程中会自动过滤该故障例。 在下一节中将具体介绍BNS系统的整体架构。 基本架构 BNS系统主要包含几个部分:流量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行例信息注册。为了证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下两个功能: 流量鉴权:每一个组、单元、例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
在传统的运维方式中,于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
流****水 2018-07-11
度云企业级运维平台——NoahEE
管理通过对资源合理的组织,极大的简化了运维作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维作,通常都涉及不少的物理作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后谁来进行修复? 物理作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,相应的人员进行作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所有运维作记录可追溯。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置文件变更(数据变更于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专门讨论过)。一般的业上线具有不定时作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故上线变更触发,如何减少变更过程中人为误作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键上线部署系统——Archer。Archer致力于提供一套产品线全过程的可迁移发布解决方案,现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等全过程的自动作。在作方面,Archer提供了命令行工具作为发起一次上线的作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
s****d 2018-07-11
亿元级云用户分析
每个公司环境都不相同,他们可能强力推进项目,也可能暗地里阻塞施,大部分情况下是被动拖沓进度,但合理引导很容易积极配合。他们的诉求更简单直白: 作的简便清晰不出错 建设和维护的劳累程度 云IT技能的个人稀缺含金量 云对旧有烂工作的解放 云对个人基础技能的替代 稳定故障清晰 汇报汇总展示方便 要想让IT技术执行人成为云厂商的好帮手,工程进度靠项目经理配合,资源协调靠销售配合,技术作类诉求靠售前引导。 3.主体贩售资源分析 云供应商不可能靠软件和做到亿元销售额,只有以资源为载体,客户才会给到亿元大单。这个观点跟前文的“资源可以用做计收载体,但不能做为上云目的分析”并不是冲突而是印证。 以软件和做亿元营收载体,采购决策人会承担巨大决议风险;但平庸的贩售资源又会陷入价格战和关系战之中,云厂商追求市值和利润都不能讲这些老套路了。 我们先列出来哪些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打包混淆集中交付,云厂商就不是卖资源而是卖梦想了。
若****客 2018-07-10
IT架构的本质--我的五点感悟
各角色分工明确方便快速现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个逻辑需求会导致后端大规模联动,不同也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。 我们要搞架构设计最重要的就是砍需求,将上层应用的需求优化删减,让同级的业能容错。上层需求优化,即前端对后端少输入少查询多容错,而同级容错可以看做应用间的需求优化,比如两个可以幂等重试就是好解耦,而A系统会等B系统等到死锁就是架构悲剧。 某电商ERP系统的用户点一次查询钮,后台系统就锁库查询一次;过程中系统越慢用户就重复点查询钮,而并行查询越多后台速度就更慢。这种环境要搞架构优化,首先要理解自然人并不要求时数据,ERP客户端限制每15秒才能点一次查询钮,在Web接入层限制每个Session每分钟只能查询一次,还可在数据库链接类库上做一层控制策略。
p****d 2018-07-11
单机房故障自愈--运维的春天
固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切流量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充足,容量充足则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。
布****五 2018-07-10
如何执行一条命令
可是如果要在几十万台机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物有所值,但巧妇难为无米之炊,原始资源投入不够云就不可能很稳定。面向中客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对大客户时会很坦诚。 作为持久共生的大甲方,请关注乙方的成本红线,买家永远没有卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
m****t 2018-07-11
设计中立公有云云管平台
而另一些上云更多是技术上强调自己接入了VPC,或者强调自己开箱即用、无限扩容。云管平台集成这些资源是为了节省用户人力和统一出账单,在人力和工期紧张时,下列我们一个也不做,让用户自己在虚拟机上搭建;在人力和时间富裕状态,我们要认评估如何接入。 依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络里自漂移,大部分云厂商又不太支持共享硬盘、心跳线等功能。云管平台可以集成这些资源应对中型客户需求,也可以直接建议客户单机部署;重型用户需求产生了就不轻易变动,可以通过云管平台自主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户端旁观选举的自协商群集。最近十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。
小****园 2018-07-10
让PB级云存储不再神秘
厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。考察案例性的方法主要靠听对方能否自圆其说,甚至让多个厂商当面质疑,能逻辑自治的厂商终归还是靠谱一些。 大客户对云端数据的处理的要求比中客户更简单,因为复杂业功能可以自己做,还可以要求厂商为自己做定制开发。 大客户的数据一般都是存在于旧系统的,其迁移方案比客户复杂,拉专线、寄设备、追增量、切业等等方面都要考虑到。一般迁移方案是现有数百T数据,规划未来3年到10PB,数十个轻量应用对接代理网关继续使用,几个核心高负载应用改成直接访问存储。为了更好的发挥对象存储优势,厂商还要诱导客户使用云平台的各种新功能。迁移方案要靠谱必须说清楚所依赖环境、作时间规划、各步风险评估、验证验收标准等信息。 大客户同样在于云平台的职业守,但其反击能力要强于中客户,因为他们不会用云平台的标准合同,而是自己订制合同内容。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
供应商用“认证”“审核”这类词跟甲方说话就是态度不端正,这又是一句“客户你好,你要从管理,爱审不审,不审就滚”。这类甲方的身份资料是公开的,也不会恶意赖账,这时应该乙方主动记录合规信息,后台透明完成功能开通,设置消费和透支上限。 假设客户是成长型公司,以前CEO创建的账户让员工继续使用。某天CEO被老婆打了一顿,因为他的网购记录有给“丽丽”订花和开房;或者网警约谈该倒霉蛋,警告他不要用网盘传播非法视频;也可能CEO打开聊天工具,发现自己很多幼稚鸡汤文给投资商。不要误会是有人要整这个CEO,SSO单点登录多项,同事用混了账户也正常。 如果客户放弃使用某云之后,原账户不注销滚动欠费几千万怎么办?云巨头们都是横向一体化经营,搞不好会和客户有竞争,霸王注册条款下的法风险确存在。 一个企业的账户不应该客户注册,而是供应商主动提供,像IDC和CDN就会主动给客户提供查带宽的账户。这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。
M****H 2018-07-11
故障定位场景下的数据可视化
基于上面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩故障范围,到故障根因: 全局问题定位:快速确认线上状态,缩故障判定范围。为可能的止损作提供判断依据。本文会介绍如何构建一个全景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进一步缩问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:一些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如上线变更、运营活动导致的故障。本文针对导致故障占比最高的变更上线类故障进行分析,看如何快速到可能导致故障的变更事件。 全景掌控缩范围 对于一个乃至一条产品线而言,拥有一个布局合理、信息丰富的全景监控仪表盘(Dashboard)对于状态全景掌控至关重要,因此在百度智能监控平台中,我们提供了一款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自灵活的组织仪表盘布局,配置所需要展示的数据信息。
TOP