关于 合川哪里有小姐服务大保健〖8843O306VX〗服务真实币问世 的搜索结果,共1508
h****e 2018-07-10
程序:我从来?
Naming Agent与Cache层的数据交互,采用推拉结的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从来?该往去?”的题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS题,欢迎家积极留言。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 题:流量调度导致其余机房过载,造成多个机房故障,造成更范围的影响。 要求:容量建设需要对于每个逻辑单元都要明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要提前的预估,为重事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦 描述:上下游使用固定IP或固定机器名进行直接连接。 题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例现止损。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到作方的转变。 云计算不是万能药,它无法解决题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排题,但其带来的环节能题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中型国企,因为现困难资源限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的题。百度对于这个题给出的答案是,必须先要解决资源组织管理题。简单的说,管理要解决的最核心题就是如何对资源进行效组织管理与定位: 图2 解决规模带来的题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源理的组织,极的简化了运维操作,提升了运维效率。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在型互联网公司中,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致题扩。 为了解决这类题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
M****点 2018-07-10
中国云计算现状——产品篇
前言 上篇文章《中国云计算现状——成本篇》(特号首发改名为《做好云计算要花多少钱》)讲的是成本题,即什么企业可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从一个老用户的角度谈谈每种云计算产品该如何使用,些产品改进是刚需放心吐槽,些产品内因就是改不了。本文主要说用云产品的题,买云产品的题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要少被企宣PPT洗脑,追求华而不的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比什么特点和局限性,客户明白特点才能使用得心应手,客户明白局限性才会早作备用方案,产品经理心不慌才会关注核心功能。 一、IaaS产品 IaaS平台的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核心组件是云主机,如虚拟网络、云硬盘和安全组都是为支撑云主机业的。
s****d 2018-07-11
亿元级云用户分析
2.1业采购决策人 企业CEO/COO/CFO或权VP,他们不关注云产品云技术,更关注业上的求新图变,互联网决策人还会敏感IT成本。单纯靠销售搞不定亿元采购决策人,亿元项目必须是高层互访作,最终敲定作的原因的就这几种: 一把手政绩工程 战略投资的附加条件 海量或结构性压缩成本 生态圈陪玩的附加条件 高层利益互换 高级IT人力外包 业采购决策人只能敲定项目可以开始,但不证落袋为安,IT方案决策人和技术执行人员同样重要。 2.2 IT方案决策人 从CTO/技术VP到权总监,业决策人选择云厂商,而IT决策人可以否决候选厂商。他们要考虑公司总体利益,比如云厂商的技术梦想是否辱智商,超低资源报价是否可行性,生态作是否伏笔暗枪等等。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀糊涂。
小****园 2018-07-10
让PB级云存储不再神秘
3、型用户谨慎选型 型用户即使只存储1PB,每年也要花100多万了;中型客户只要做选型,而项目不仅要选型和定制,还更多技术以外的东西要考量。 首先同样说价格题,型客户比中客户更难办,客户是嫌价格贵,客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一群TB项目做的计费融,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储同上不会总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个题,如前文所述,对于单机环境来说,这三个题在前人的努力下已经被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输题:为了证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在界各地。 代理执行题:为了更好的处理权限、单机并发等单机执行题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
个客户非常信任某个云销售,他告诉该销售,虽然某高层作,某云也说报价肯定比某云低5%;但是某云的机制题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐站住了,这份暗中相助就是靠个人商誉带来的信任。 我和客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底些组件是靠谱的,不要让信赖你的客户受伤又受骗。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
云计算历经多年发展,从最初的概念模型,到被众熟知,再到现在全行业拥抱上云,取得了巨的进步。云的主要客户已从最初的中初创公司逐步渗透到各行各业的型企业。可以说,企业上云已是企业发展的必由之路。部分数据敏感的企业结自身数据的安全性、所权和控制权等综因素考虑,会选择搭建自己的私云或者混云环境。 但是在上述环境中,用户的机器都需要自行管理,这就必然给云运维人员带来很多意想不到的麻烦。 其我们面临的题从来就没什么的变化,唯一不同的只是机器规模越来越,人心越来越复杂。 Q如何在1台机器上部署基础设施?A 一切都源于那个亘古不变的道理:扔一个文件到机器上,然后跑一个命令。 Q如何在10台机器上部署基础设施?A 写个for循环搞定。 Q如何在10000台机器上部署基础设施?A 这个也好办!定制操作系统镜像CUSTOM.iso装机自动化安装! then…… Q如何快速升级所机器上的基础设施? Q因异常挂掉,能自动重启活吗? Q公司做活动,预计流量突增,能扩容吗? Q公司活动结束,为节约成本,能缩容吗? Q新开发的基础设施题,能立马回滚吗?
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力了就多做水平复制扩容,在网站类应用上,无状态-会话持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更更难控制。 时改异步是我学的最后一门IT技术,绝部分“时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要时处理结果了。CS模式的时操作会给支撑带来巨压力,Peer作的时操作可能会让数据申请方等一宿。架构师将一个无脑拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符自然规律章可循的。 一个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
w****t 2018-07-10
AIOps中的四金刚
具体职责包括: 在AIOps时代,运维工程师一方面需要熟悉运维领域的知识,了解运维的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解些场景题适用机器学习方法解决,需要提供怎样的样本和数据,即成为AI在运维领域落地施的解决方案专家。 运维AI工程师 在单机房故障自愈场景中,运维AI工程师将机器学习的算法与际的故障处理业场景相结,针对单机房故障场景的风险点,进行策略研发与验工作。如下图所示: 运维AI工程师分别设计了如下算法策略来满足整个复杂故障场景的自动决策: 异常检测算法:解决故障发现时指标异常判断题,基于AI方法现较高的准确率和召回率,作为整个故障自愈的数据基础。 策略编排算法:基于当前线上的际流量和状态,设计损益计算模型,判断基于何种方式的操作组或步骤,能够使整个自动止损带来收益最,风险最。 流量调度算法:基于线上容量与时流量情况,进行精确流量比例计算,防御容量不足或不准风险,并现流量调度收益最化。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
当前云计算技术的势头很好,但因为技术和市场等原因还需要慢慢发展,而且云计算做的是“锦上添花”的事情,企业用不用云计算对自身业功能影响不。我们运维人员从做事的可靠性、全局意识,凭借这些特性仍然能活的很好。运维这个岗位可能会消失,但做过运维的人还是很多路可以走的。 家都知道黑云压城也该未雨绸缪了,如果你已经是个运维老鸟或者很快就投身运维工作,我建议家往这几个方向上动动脑子: 1、企业采用公云方案后,仍然需要一个懂行的人解决公云平台的监控、评估、采购、报修这类题。但这个职位应该一个公司公司只需要一个人,且再等上十年云计算彻底标准化后还会再次消失。当然了,我相信能胜任这个岗位的人,在云计算已经规范到不需要专人维护的时候,他们也会能力找到更适的岗位。 2、进行云计算器维护;几供应商自己也要维护器,那些中型企业肯定会自己做私云,在这个云计算平台也是需要运维人员进行从低端监控到高端架构的一系列维护工作,但自动化运维技术会让运维人员的数量减少,可能每个公司都只一两个团队了。
嘟****y 2018-07-11
型企业适用的云平台账户体系
这些年来云计算技术突飞猛进,但我一直很怕和客户谈云平台的账户体系,因为客户理化需求,而(某客户说)云平台的账户设置就是在糊弄鬼。随着部分云平台在完善账户体系,我们可以心平气和的谈一谈而非吐槽这个题了。 云计算公司的技术班底都是个人业起家,他们最早接入的是中企业和创业者,其账户体系并不适用于型企业客户。型客户上云之前都用过虚拟化、域管理、网管资源管理软件,肯定不适应这套功能单薄诡异的用户约束。本文的目的是为了让客户底气提出质疑,让云平台继续完善开发,最终提供符企业级应用场景的账户体系。 第一.账户注册题 首先我们看法题,如果注册时死抠法题,国内各云平台会颗粒无收。 我随便摘取了几段账户注册的用户协议: 客户的云账户是唯一身份识别依据,就连交钱时也是只认账户不认人。 云平台权限制客户账户下所产品及全部功能,心情不好就不卖。 客户证不会影响云平台关联公司的法权益,其标准由云平台做权威判断。 这是不是一种“客户你好,我是你爷,爱买就买,不买就滚”的即视感?谁资格代表公司去注册账户和同意条款,IT部私自注册云账户跟私签同的区别吗?
TOP