关于 干郦找小妹包夜服务【v信78792796】涟源保健足浴按摩服务 的搜索结果,共778
h****e 2018-07-10
程序:我从哪里来?
货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户任度下降、给竞品占领市场机会等。
s****d 2018-07-11
亿元级云用户分析
读者们不要觉得卖人日很低端,人力资是难以垄断和模板化复制的;只有不能垄断的行业,精英打工者才有极大的发挥空间。 4.架构和流程变化分析 大型云用户在上云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是特配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥有DDOS的资和统一前端的实践经验,还有海量廉价优质带宽。限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目任云厂商。客户有精力就做多云冗余校验,有预算就做专有资池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
投入 云资贩售过程中,合格的厂商可以让云资物有所值,但巧妇难为无米之炊,原始资投入不够云就不可能很稳定。面向中客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资,但面对大客户时会很坦诚。 作为持久共生的大甲方,请关注乙方的成本红线,买家永远没有卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资;有时候明明是人为原因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资又是,资相对可以量化,但短期内看直观感受,长期看商业誉。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以实现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟以外,大部分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟是盲目任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
追****圣 2018-07-11
给书记省长讲清楚云计算
最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切实际的期望值。 云计算行业不需要大量雇佣本地劳动力,无法解决大批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用大量电力。 对于四线城市政府和中型国企,因为现实困难资有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云平台和IaaS云资的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
流****水 2018-07-11
度云企业级运维平台——NoahEE
Noah来于圣经中“诺亚方舟”的故事,我们用这个名字来寓意能够避免灾难,稳固而坚实的平台。作为一系列运维系统的集合,Noah括了管理、机器管理、资定位、监控报警、自动部署、任调度等等,已经了百度数年之久。我们推出的NoahEE(Noah Enterprise Edition)脱始于Noah,为企业提供了一站式运维解决方案,覆盖了括日常的故障管理和变更管理中典型的运维场景,致力于为政企、金融、教育等行业提供业可用性障、提升运维效率。 图1 NoahEE概览 接下来,我们把这艘诺亚方舟分解开来,近距离观察一下这艘船的方方面面。 管理 我们首先介绍管理是因为管理是整个运维工作的基础,也是NoahEE这个平台上各个系统能够进行批量自动化操作的关键。管理这个概念的出现,是随着业快速膨胀的必然,其要解决的主要问题是一个“量”,或者说“规模”的问题。在早期业较为简单时,一个可能部署在几台甚至一台机器上,进行变更等运维操作简单直接,登录到机器上人工操作就好了。随着业的发展,分布式应用与的广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。
m****t 2018-07-11
设计中立公有云云管平台
2.用户系统 云管平台都是做对内业或者固定项目,所以用户系统不开放注册,不需要回密码、身份认证等功能,但酌情开放修改密码、高危操作短验证、特种资申请等功能,技术咨询类工单可以透传给厂商。 公有云的配额系统是为了护厂商稀缺资不被客户滥用,用户误操作不会花光资金的。云管平台的客户很少会滥用资,平台是厂商的大客户也不会轻易欠费停机,云管平台可以只做简单粗糙的配额系统,以减少用户误操作为准,如果工期过紧甚至可以先不做配额系统。 用户系统要有一个客户可用的Web管理控制台,让用户可以完成各种资操作。该管理控制台借鉴各大公有云控制台即可,所要展示的资和功能已经在前文讨论过了,该产品可完美模拟功能强大,也可以极速从简只做必要功能。 3.计费系统 标准计费系统的功能复杂又强大,每个账户是预付费还是后付费、当前有多少余额/透支额度、单个资是打整体付费还是量付费,免费配赠资的占用策略,资欠费后的留周期,网银和财付费接口,甚至连发票管理都是计费系统要涉及的。 本部分说明如何用一两个人月就能做出来的对账式计费系统。 用户相对可控,对反赖账逻辑就可以弱化甚至不做。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统一的结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可照单实例、单机房、单地域等级别设置暂停点,并支持部署过程中进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件中设置配置变量,并在特定地域(机房)中生成特定配置值; 多种网络环境及大部署 针对多种网络环境及大部署的使用场景,Archer提供了部署数据中转传输。采用中转的上线在发起任后,部分代码将首先被转存至中转机上。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
p****d 2018-07-11
单机房故障自愈--运维的春天
基于内网监控、基础监控、业监控提供的故障号;触发内网止损决策器进行止损决策;执行流量调度、主备切换、弹性降级等止损操作。 单机房故障自愈的常见问题和解决方案 传统的流量调度自动止损方案存在如下问题: 1容量风险控制能力不 【问题描述】 传统流量调度的模式有两种:固定比例模式与容量护模式。 固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不,切流量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充,容量充则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
若****客 2018-07-10
IT架构的本质--我的五点感悟
架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不而损有余的选型。比如数据压缩技术就是用算力资来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3. 理解硬件天性 角色选型时要看硬件的天然特性 别让硬盘扛性能,别让内存持久,别让网线扛稳定。 架构层软件技术已经够成熟,所谓技术选型不如说是适应场景;在做具体角色选型时,最深度也最易忽视的原则是顺应硬件天性。 我的精神导师说过,如果一个依赖硬盘,那这个就不适合扛性能压力。我经常将读写引到/dev/shm;SSD盘让很多细节调优聊胜于无,还让Fat32枯木逢春;个别队列和分布式存储在意硬盘的性能力,但都是应用了顺序读写内容,且不介意磁盘空间浪费。
小****园 2018-07-10
让PB级云存储不再神秘
云存储厂商都宣称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还了; 平台说自己能到多少个9,我们都笑笑就好,故障出来了平台总能到理由的。你买最贵的EMC存储柜也不能证100%不丢数据,怕丢数据要设计备份方案而不是寄希望于单一硬件或。 TB级用户同样不用太关心存储群集的性能,因为你是用HTTP协议访问一个广域网,广域网和客户端才是网络吞吐性能的瓶颈。几家云存储厂商在SLA里都没承诺速率,上行带宽本来就免费,而下行带宽都会走CDN。但是这类客户已经出现迁移困难了,假设你有200T数据要从某云迁到自己机房,如果你的迁移用IDC带宽是1000M需要20天才能完成任。 上文是拨开一些企宣烟幕弹息,下文是TB级用户最关注的问题。 (1)价格问题。 假设你有200T数据,每年的开销在30万左右;这里说谈价格不是让你死抠存储的价格是10万还是40万,而是注意存储会带来其他消费,比如说现在存储要计算CDN回带宽了,比如说两个云存储互为备份带宽同步费用有多少。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
供应商用“认证”“审核”这类词跟甲方说话就是态度不端正,这又是一句“客户你好,你要从管理,爱审不审,不审就滚”。这类甲方的身份资料是公开的,也不会恶意赖账,这时应该由乙方主动记录合规息,后台透明完成功能开通,设置消费和透支上限。 假设客户是成长型公司,以前CEO创建的账户让员工继续使用。某天CEO被老婆打了一顿,因为他的网购记录有给“丽丽”订花和开房;或者网警约谈该倒霉蛋,警告他不要用网盘传播非法视频;也可能CEO打开聊天工具,发现自己很多幼稚鸡汤文给投资商。不要误会是有人要整这个CEO,SSO单点登录多项,同事用混了账户也正常。 如果客户放弃使用某云之后,原账户不注销滚动欠费几千万怎么办?云巨头们都是横向一体化经营,搞不好会和客户有竞争,霸王注册条款下的法风险确实存在。 一个企业的账户不应该由客户注册,而是供应商主动提供,像IDC和CDN就会主动给客户提供查带宽的账户。这个账户只是为了让客户低成本的获取,不含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资隔离 企业客户尽量会将资集中采购,在采购IDC/CDN这类简单时不用担心资混淆。
y****i 2018-07-11
做容器云的最佳用户
对于持续集成和交付场景来说,以前我们是硬压着研发和测试,持版本一致、证文件打好,从不盲回滚预案,必须后半上线,就这样还天天出故障;现在自动上线的压力确实多了,大家都可以放心测试生产环境一致、证文件不漏传、可以和Git无缝集成,可以扔给研发和测试半自助上线了。这就是我前文所说的,容器快速部署的优势在于决策的快、操作的简单。 而K8S的兴起它把容器从改良工具变成了革新武器。以前有过很多架构师做培训和文档,讲解发现、注册、编排、路由,资监控和统计,研发就是说听不懂。可是一套来自大厂的开方案出来了,研发就主动去拥抱了。有了K8S以后,即使研发人员做不了架构和运维,只要肯适应K8S的设计逻辑,都可以取代这两类人的工作。他们通过配合了K8S或类似组件的容器云,老老实实改变研发流程,让代码和架构,让架构和资耦合到一起。 现在我们能说清楚过去为什么没有公有容器云成功案例,因为客户的执行层是脑臀分离的——运维推动研发把程序改造到可以上容器,以完成运维的业绩,猫让狗帮忙抓条鱼给猫吃,这事能搞定才怪。
TOP