关于 平果县找小姐妹子服务〖8843O306VX〗服务真实哉染暮疾子 的搜索结果,共1082
h****e 2018-07-10
程序:我从哪里来?
通过部署在机器上的客户端感知到例的状态变化(比如例状态由0变成-1,即正常变成非正常),并将数据同步到系统中的分布式缓存,上游模块可以通过查询redis.noah.all的例状态结,主动过滤非正常的例,也可以在BNS系统中发起屏蔽故障例的操作,在查询过程中会自动过滤该故障例。 在下一节中将具体介绍BNS系统的整体架构。 基本架构 BNS系统主要包含几个部分:流量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行例信息注册。为了保证台稳定和安全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下两个功能: 流量鉴权:每一个组、单元、例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。
w****0 2018-07-11
单机房故障自愈-黎明之战
那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。 单机房故障止损流程 一个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
M****点 2018-07-10
中国云计算现状——产品篇
既然谈到了混合云,肯定就要谈云管台,云管台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚。但具体参与过程中,这类工作很少有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一时一千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为型云计算企业因为资质、高层合作、客户关系等原因没有投标的机会。 我们经常遇到咨询标,但我们也不想投这个标。
流****水 2018-07-11
度云企业级运维台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例中,地图研发的同学就可以在运维台中选中导航的模块进行升级,运维台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管台的底层工具链,为PaaS台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
m****t 2018-07-11
设计中立公有云云管
而另一些上云更多是技术上强调自己接入了VPC,或者强调自己开箱即用、无限扩容。云管台集成这些资源是为了节省用户人力和统一出账单,在人力和工期紧张时,下列我们一个也不做,让用户自己在虚拟机上搭建;在人力和时间富裕状态,我们要认评估如何接入。 依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络里自由漂移,大部分云厂商又不太支持共享硬盘、心跳线等功能。云管台可以集成这些资源应对中型客户需求,也可以直接建议客户单机部署;重型用户需求产生了就不轻易变动,可以通过云管台自主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户端旁观选举的自协商群集。最近十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和复问题的销售和人员。
嘟****y 2018-07-11
大型企业适用的云台账户体系
将不同业区分为不同账户也解决不了问题,因为客户和云台都要将这批账户统一管理,但际扣费进度总会超出意外,项目欠费停机或者追加预算,挨骂受累的都是台管理员。 现在越来越多的云台会让客户账户下创建多个权限和访问隔离的资源组,不同的资源组会各自做用量统计和配额上限,逐步解决了管理员侧的资源隔离和计费问题。 ##有的台会把这些资源组叫做“资源账户”,但这和下文的权限账户会有名称混淆,本文是将其称为资源池或者资源组。 第三.多账户权限隔离 相关用户在云台要有自己的账户,这样才好记录操作日志和做权限控制。 首先要保证这些账户不能用于登陆到公司的其他业线,特别是个人业线,这也是账户研发一直滞后的重要原因。 最简单的账户是管理员手动创建账户密码,但这有弱密码和员工离职问题;简洁方案就是管理员手工创建账户,但密码验证由客户的企业AD做Keberos认证来完成;最复杂对接即将AD的账户体系(含用户注释和分组信息)完整引入云台,但云台管理是众需求,AD管理员一般不是合适的云台管理员,这个功能要斟酌。
追****圣 2018-07-11
给书记省长讲清楚云计算
最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云台,但他们建好云台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要大量雇佣本地劳动力,无法解决大批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污,所以不用考虑环保减排问题,但其带来的环保节能问题很严重,每个数据中心都会占用大量电力。 对于四线城市政府和中型国企,因为现困难资源有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资源。
s****d 2018-07-11
亿元级云用户分析
咨询规划--如直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的施和结项都是以结为导向的,明确的过程控制和验收标准对供求双方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。 资源持续--亿元大客户不要求云台永不故障,但要云台承诺清晰SLA,事后给个合理的故障报告。 后记 如我在《复制阿里云并不难》中所说的,一个云行业半个IT界”,云行业将垄断IT界一半的营收和利润。本文讨论的亿元大项目,目标就是拿下IT圈的营收上限。现在亿元大单都是云厂商在侵入系统集成商的势力范围,后面云厂商会得到越来越多的亿元大单。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
w****t 2018-07-10
AIOps中的四大金刚
在AIOps落地施中,运维工程师是处于中心的角色,也赋予了新的职责,他们是AIOps具体施的需求提出者和成验收者。具体职责包括: 在AIOps时代,运维工程师一方面需要熟悉运维领域的知识,了解运维的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解哪些场景问题适合用机器学习方法解决,需要提供怎样的样本和数据,即成为AI在运维领域落地施的解决方案专家。 运维AI工程师 在单机房故障自愈场景中,运维AI工程师将机器学习的算法与际的故障处理业场景相结合,针对单机房故障场景的风险点,进行策略研发与验工作。如下图所示: 运维AI工程师分别设计了如下算法策略来满足整个复杂故障场景的自动决策: 异常检测算法:解决故障发现时指标异常判断问题,基于AI方法现较高的准确率和召回率,作为整个故障自愈的数据基础。 策略编排算法:基于当前线上的际流量和状态,设计损益计算模型,判断基于何种方式的操作组合或步骤,能够使整个自动止损带来收益最大,风险最。 流量调度算法:基于线上容量与时流量情况,进行精确流量比例计算,防御容量不足或不准风险,并现流量调度收益最大化。
布****五 2018-07-10
如何执行一条命令
可是如要在几十万台机器上每天执行几十亿条命令,同时保证时效性,保证执行成功率,保证结正确收集,保证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例如下: 信息存储问题:为了支持水扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招一个研究这事的工程师,上云确也很有意义啊。 夜静人稀,沙龙关好了门,一气把六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又微微一笑,“不传!不传!”----老舍《断魂枪》
TOP