关于 大足县找小姐服务〖8843O306VX〗服务真实暮疾世赂灿 的搜索结果,共1185
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS例的健康检查功能,用户通过在Web页面对每一个例配置健康检查的方式,机器上的Check Agent会主动探测所有例的运行状况,并将健康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎家积极留言。
w****0 2018-07-11
单机房故障自愈-黎明之战
要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要保证变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重事件流量高峰预留够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例现止损。 单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
干货概览 在型互联网公司中,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
M****点 2018-07-10
中国云计算现状——产品篇
客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至有专门的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调按需付费的计算只是快速释放资源的把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是订单曲线突破的好选项,还是AI和数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户自助施的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损上千万。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不,胜者也是比烂赛中靠友商更烂胜出的,和IDC/CDN的比优赛无法相提并论。客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
追****圣 2018-07-11
给书记省长讲清楚云计算
他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环保减排问题,但其带来的环保节能问题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中型国企,因为现困难资源有限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
流****水 2018-07-11
度云企业级运维平台——NoahEE
灰度测试难,怎样通过灵活的部署方式,先进行流量线上测试,待效果达到预期后再扩部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。在部署管理模块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作等,在部署的过程中发现问题即可暂停并回滚至之前的状态。除了部署等操作,部署管理模块还提供了批量执行命令等操作(比如批量启停某一)。如图来总结部署系统的能力: 图4 部署管理 监控管理 在任何工作里,信息掌握的全面与否往往关乎到工作的成败。“知己知彼百战不殆”这句话说的就是这个道理。运维工作中,监控系统就是这个让我们做到这点的关键。软硬件是否工作正常,出了问题是否能及时发现与报警,甚至是对异常事件等进行提前预测,都仰仗监控系统。在NoahEE的监控管理模块中,你可以期待全面的各种监控相关功能,包括了采集Agent、强的汇聚计算与指标派生、灵活的报警机制、高效的时序数据库(TSDB)等等。
w****t 2018-07-10
AIOps中的四金刚
在AIOps落地施中,运维工程师是处于中心的角色,也赋予了新的职责,他们是AIOps具体施的需求提出者和成果验收者。具体职责包括: 在AIOps时代,运维工程师一方面需要熟悉运维领域的知识,了解运维的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解哪些场景问题适合用机器学习方法解决,需要提供怎样的样本和数据,即成为AI在运维领域落地施的解决方案专家。 运维AI工程师 在单机房故障自愈场景中,运维AI工程师将机器学习的算法与际的故障处理业场景相结合,针对单机房故障场景的风险点,进行策略研发与验工作。如下图所示: 运维AI工程师分别设计了如下算法策略来满整个复杂故障场景的自动决策: 异常检测算法:解决故障发现时指标异常判断问题,基于AI方法现较高的准确率和召回率,作为整个故障自愈的数据基础。 策略编排算法:基于当前线上的际流量和状态,设计损益计算模型,判断基于何种方式的操作组合或步骤,能够使整个自动止损带来收益最,风险最。 流量调度算法:基于线上容量与时流量情况,进行精确流量比例计算,防御容量不或不准风险,并现流量调度收益最化。
小****园 2018-07-10
让PB级云存储不再神秘
3、型用户谨慎选型 型用户即使只存储1PB,每年也要花100多万了;中型客户只要做选型,而项目不仅要选型和定制,还有更多技术以外的东西要考量。 首先同样说价格问题,型客户比中客户更难办,客户是嫌价格贵,客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。
p****d 2018-07-11
单机房故障自愈--运维的春天
很可能某个机房的容量或剩余机房的总容量不,切流量后导致多个机房发生故障。 容量保护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充,容量充则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量保护的情况下进行尽可能的调度,减少对用户的影响。 2.即使按照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最承载能力,一旦流量超过故障水位线,很概率会导致容量过载。 如果安全水位线提供的容量不以满止损,那我们期望使用上两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集量的时信息(前期文章《百度规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
ToB产品经理的岗位需求太少、对人的要求太高、出业绩太难,又难有超高收益,为什么不踏踏的继续做团队管理、做研发售前、做解决方案? 如果你的团队运气好,遇到一个合适的产品经理,请容忍他短时间不出活,请容忍他拒了客户需求,请容忍他给研发添工作量,因为合格的产品经理要背负和团队负责人一样的选型责任,他名字叫产品经理,但本质上是软件和设计师。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
除了通讯公司之外,生产领域(比如管理生产线)也有类似的顾虑,云计算的优势和公司的业需求完全不沾边,所以这类公司的运维可能会是最后的运维。工作的时候都习惯网站相关的工作,但你学过Web就一定要网站工作是挺蠢的行为,危邦不入乱邦不居,最好不要涉一个没有前途的行业。生产领域的公司因为运维涉及到在在的钱,所以运维人员待遇高(都是专有技术难培养)、做的事情少(自发做事多了会出错,不如厂商技术支持),只是跳槽的难度比通用运维要一些(都是专有技术不通用) 4、彻底转型,做和计算机无关的工作;选这条路的人一部分是自己有觉悟或巧机缘,但另一部分人是的适应不了环境变化,希望各位不要被淘汰掉。 最后总结一下,云计算是不可阻挡的历史趋势,它还给了运维五到十年的时间去修正自己的职场规划,我们可以顺势而为也可以激流勇进,但不可得过且过随波逐流最终。 天行健,君子自强不息。
TOP