关于 天水麦积区元龙镇找少妇服务同城〖10669708薇信〗 的搜索结果,共1068
h****e 2018-07-10
程序:我从哪里来?
Naming Agent:提供BNS的查询功能,用户可以根据一个名字(组、、实例)就能得到详细的息。Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,时Naming Agent客户端会将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS实例的健康检查功能,用户通过在Web页面对每一个实例配置健康检查的方式,机器上的Check Agent会主动探测所有实例的运行状况,并将健康检查的结果上报给Cache层,时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎大家极留言。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
附录2:网上能到一个写NTPD和ntpdate的文和本文内容有些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
w****0 2018-07-11
单机房故障自愈-黎明之战
要求:将拆分为若干不的逻辑单,每个逻辑单处于不的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,时需要保证变化时及时更新数据和扩容,避免容量数据退化。时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以实现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。 单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。
s****d 2018-07-11
亿级云用户分析
每个公司环境都不相,他们可能强力推进项目,也可能暗地里阻塞实施,大部分情况下是被动拖沓进度,但合理引导很容易极配合。他们的诉求更简单直白: 操作的简便清晰不出错 建设和维护的劳累程度 云IT技能的个人稀缺含金量 云对旧有烂工作的解放 云对个人基础技能的替代 稳定故障清晰 汇报汇总展示方便 要想让IT技术执行人成为云厂商的好帮手,工程进度靠项目经理配合,资源协调靠销售配合,技术操作类诉求靠售前引导。 3.主体贩售资源分析 云供应商不可能靠软件和做到亿销售额,只有以资源为载体,客户才会给到亿大单。这个观点跟前文的“资源可以用做计收载体,但不能做为上云目的分析”并不是冲突而是印证。 以软件和做亿营收载体,采购决策人会承担巨大决议风险;但平庸的贩售资源又会陷入价格战和关系战之中,云厂商追求市值和利润都不能讲这些老套路了。 我们先列出来哪些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打包混淆集中交付,云厂商就不是卖资源而是卖梦想了。
追****圣 2018-07-11
给书记省长讲清楚云计算
当前云计算公司聚集在一线大市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线市不仅要极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线市对互联网还只是简单的管控,稍有不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到全国。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
那是在更早的版本GRUB程序读不了GB级磁盘分,没办法加载vmlinuz内核,现在已经只是一个迷而已。 5.内核启动加载驱动,但这还没触及任何业。 不硬件一个版本的vmlinuz内核hash值是相的,因为驱动息放在initrd*.img里。Initrd*.img是一个精简但带了所有驱动的linux镜像,一般系统安装完之后自动生成,也可以事后手动生成。 曾经某偏门软件推荐用集成镜像安装,装完了就是起不来,我把内核版本、硬件配置的init*.img替换以后系统就正常启动。 Kernel加载了所有驱动后就会卸载initrd*.img,早期linux版本在系统启动过程中还能看到很多“umount filesystem”的提示,那不是卸载正式文件系统,而是卸载了initrd*.img这个迷你系统, 6.Init进程启动,正式启动。 从看到“Welcome use CentOS”的彩色欢迎文字开始,init已经启动了。 在这之前的启动过程也就读取BIOS/MBR/GRUB和/boot分,现在终于开始读/etc目录的配置文件了。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专门讨论过)。一般的业上线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由上线变更触发,如何减变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键上线部署系统——Archer。Archer致力于提供一套产品线全过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等全过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次上线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流线作业中,Archer可以作为一个环节结合进整条测试发布流线中。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电接入故障,中断小时级别 2017年1月某业津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
M****点 2018-07-10
中国云计算现状——产品篇
现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和实施 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和实施可以让公司增加企业的融资概念和收入构成。中小型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚实。但具体参与过程中,这类工作很有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一小时一千的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为小型云计算企业因为资质、高层合作、客户关系等原因没有投标的机会。 我们经常遇到咨询标,但我们也不想投这个标。咨询标的交付物就是各种文档和报表,互联网公司的技术淀都在技术部,技术人员最烦的就是写文档,而且技术人员匮乏的想象力和沟通能力并不适合做咨询标,让售前承担技术文档书写也扛不住。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前言:架构师是个无趣的工作 老僧三十年前未参禅时,见山是山,见。 及至后来,亲见知识,有个入出,见山不是山,见不是。 而今得个休歇处,依前见山只是山,见只是。 参禅的三重境界在IT技术圈样适用,初学者感叹每个产品都如此精妙绝伦,追逐着最强的IDE;老司机喜欢自比管乐指点江山,嘲讽着最好的语言;当一切回归平淡,搞IT就是一份思想延伸和语言翻译工作;其中技术架构师就是一份古朴甚至无趣的工作。 我将架构师的工作总结出五条核心道理,这五条经验简单直白又深奥通透,算是对我十二年IT工作的一个总结。 1. 需求优化最重要 依赖,Less is more 一个IT系统是多角色多模块分层分级的,像OSI模型上层应用简单依赖下层支撑,SOA设计中级角色也只看对方的接口。 各角色分工明确方便快速实现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个小逻辑需求会导致后端大规模联动,不也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。
小****园 2018-07-10
让PB级云存储不再神秘
云存储都对接多媒体处理,市面上的多媒体处理大都套用imagemagick和ffmpeg,各家的主体功能趋,细节毛刺上别的这个级别的用户感觉不出来,有新需求也会被礼貌性无视。 对象存储的业形态很容易被平台方窃取数据,即使你做了数据加密也可以根据你的计费日志评估你的业量,但你现在只有G级别的数据,暂时不用考虑太多厂商中立性。 小容量数据也很容易迁移,假设你要从云存储迁移100G的数据到虚拟机,总成本不超过300,迁移时间也可以控制在一以内。有了方便迁移这个特性,云存储平台有什么让你不爽的,直接迁走。 2、中型用户三思后行 GB级用户不在意的坑,TB级用户全部要踩一遍;而TB级客户在面对繁杂市场宣传,很难看透云存储的本质内容。对象存储都是用API接口调用,普通用户看不到也不关心群集规模和技术细节。大家读完本文以后可以更理性和警惕的评估云存储供应商。 首先说数据持久性和安全性不用太关心。云存储厂商都宣称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还小了; 平台说自己能到多个9,我们都笑笑就好,故障出来了平台总能到理由的。
p****d 2018-07-11
单机房故障自愈--运维的春
期望能够在不超过容量保护的情况下进行尽可能的调度,减对用户的影响。 2.即使按照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可。 【解决方案】 基于容量位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全位线:流量处于在安全线以下则风险较小,可以一步进行切换。 位上限:该位线表明的最大承载能力,一旦流量超过故障位线,很大概率会导致容量过载。 如果安全位线提供的容量不足以满足止损,那我们期望使用上两条中间的容量buffer,时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,实现故障的恢复。
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
M****H 2018-07-11
故障定位场景下的数据可视化实践
而对于维度取值数量多,且不取值数量级差距较大情况(例如分省份的流量下跌判定),使用饼图或趋势图很容易把流量较小省份的息隐藏掉。这种场景下,我们可以通过维度取值自动展开功能,分别查看每个省份的状态。 多个维度关联分析 细分维度的故障所带来的表象可能会在多个维度均有表现,比如整体的访问拒绝上升,我们会发现分机房的拒绝量上升,也看到分模块的拒绝上升。那么我们如何确认故障的根因是来源于某个机房还是某个模块,还是这两者的交叉维度,即某个机房的某个模块导致的问题。 矩阵热力图可以解决这一问题。将需要做分析的两个维度分别作为横纵坐标,通过阶梯的阈值颜色将对应交叉维度的取值展现再坐标上。我们便可非常直观的看到这这两个维度对于整个业的影响情况,如下图所示: 我们可以看到,从纵向的分模块维度,可以看到Module 4在多个机房都有明显的访问拒绝情况,而在横向分机房维度,则没有明显的特征。则说明是Module 4模块导致的问题。 嵌套维度下钻分析 类似于国家-省份-市的行政域划分,域-机房-机器的部署划分,我们可以看到很多维度之间存在着层次嵌套的关系。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更小,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常任某个小云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。
TOP