关于 小妹保健服务 78792796-微V号任丘市一夜上门按摩服务庾 的搜索结果,共1478
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS实例的康检查功能,用户通过在Web页面对每个实例配置康检查的方式,机器的Check Agent会主动探测所有实例的运行状况,并将康检查的结果报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进步了解BNS问题,欢迎大家积极留言。
疏****月 2018-07-09
线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统的包结构; 支持分级发布,及时拦截部署引入的线故障 针对分级发布的使用场景,Archer支持串并行线及暂停点功能,可照单实例、单机房、单地域等级别设置暂停点,并支持部署过程中进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同份配置文件中设置配置变量,并在特定地域(机房)中生成特定配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据中转传输。采用中转的线在发起后,部分代码将首先被转存至中转机
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信度下降、给竞品占领场机会等。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
NTPD是个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是个体系化的,而ntpdate只是个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信;假设个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即意机房故障情况下,其余机房均可承载这部分流量,同时需要变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的下游之间无法进行快速的流量调度止损。 要求:线关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的下游连接方式以实现下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和云没直接联系,个是室内装修工作,个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
流****水 2018-07-11
度云企业级运维平台——NoahEE
随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加些指标采集,并在定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。
追****圣 2018-07-11
给书记省长讲清楚云计算
二三线城对互联网还只是简单的管控,稍有不解可能就会封禁大批互联网,但道封网命令就可以毁掉个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有场有客户那对方会主动寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值提,场和客户要靠云计算厂商自己去找。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,旦摸出来案例会迅速推广到全国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个个经典PaaS应该只是个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
布****五 2018-07-10
如何执行条命令
面临的困难 命令行的三要素,也是如何执行条命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几十万台机器每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均万亿的冷数据,需要仔细选择存储方案。 调度问题:为了达到在意多台执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了证命令高效正确送达目标器,需要构建个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招个研究这事的工程师,云确实也很有意义啊。 静人稀,沙子龙关好了气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又笑,“不传!不传!”----老舍《断魂枪》
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用,无状态-会话持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散操作就越爽,但全局操作开销更大更难控制。 实时改异步是我学的最后IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等宿。架构师将个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表样,拆散的需要更高业层级做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 个经典机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是对应。 3.
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择信能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常信某个云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的信。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有信心向客户证明,换了其他厂商也样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让信赖你的客户受伤又受骗。
小****园 2018-07-10
让PB级云存储不再神秘
SSD文件存储,这其实是标准三副本存储的SSD版本,般用来存储文件,SSD盘再贵也比缓存的内存便宜。文件存储的数据总量不大,般在本盘存储即可,不用导入纠删码存储中。 述存储手段只是落盘手段,作为存储组件还要通盘考虑下列问题。 磁盘故障时的修复性能。 商用磁盘都是照36-60个月的使用周期设计的,假设你有6000块磁盘每个月要坏100块盘,天天坏盘天天修盘已经成为常态。厂商要证损坏磁盘快速修复,避免修复周期内另外几块冗余盘并损坏,又要证磁盘修复时群集性能受不了太大影响。 当前大家都采购4T8T硬盘,照磁盘顺序写入300M的速率,填满个磁盘的数据需要10个时以,最通用的处理方案是将块4T盘分为40个PG,40个PG逃逸到40块新盘速度就在30分钟以内,而且没消耗新磁盘太多IO。磁盘修复时的IO放大有解决方案但很复杂且涉密,本文不提及。我只透露前文不让做单节点性能压榨就是防着这类异常情况,http下载场景中引入缓存可以减少重复读取的压力。 群集动态扩容能力。 很少有项目是线就建设50PB的容量,并在半个月内全部数据就位。
p****d 2018-07-11
单机房故障自愈--运维的春天
固定比例模式:照预先设定的固定预案,个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切流量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充足,容量充足则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全水位线:流量处于在安全线以下则风险较,可以步进行切换。 水位限:该水位线表明的最大承载能力,旦流量超过故障水位线,很大概率会导致容量过载。
TOP