关于 中介网_学妹上门服务 78792796-微V号淮阴上门按摩服务 的搜索结果,共1161
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统一的包结构; 支持分级发布,及时拦截部署引入的线故障 针对分级发布的使用场景,Archer支持串并行线及暂停点功能,可照单实例、单机房、单地域等级别设置暂停点,并支持部署过程进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件设置配置变量,并在特定地域(机房)生成特定配置值; 多种络环境及大包部署 针对多种络环境及大包部署的使用场景,Archer提供了部署数据转传输。采用转的线在发起任后,部分代码将首先被转存至转机
h****e 2018-07-10
程序:我从哪里来?
通过部署在机器的客户端感知到实例的状态变化(比如实例状态由0变成-1,即正常变成非正常),并将数据同步到系统的分布式缓存,游模块可以通过查询redis.noah.all的实例状态结果,主动过滤非正常的实例,也可以在BNS系统发起屏蔽故障实例的操作,在查询过程会自动过滤该故障实例。 在下一节将具体绍BNS系统的整体架构。 基本架构 BNS系统主要包含几个部分:流量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行或实例信息注册。为了保证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下两个功能: 流量鉴权:每一个组、单元、实例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。
流****水 2018-07-11
度云企业级运维平台——NoahEE
除了有NoahEE运维平台的绍外,还有我们智能运维产品的相关绍,欢迎大家访问该站并联系我们试用各运维产品。
w****0 2018-07-11
单机房故障自愈-黎明之战
依赖层:内下游业之间的流量调度过程,使用百度名字(BNS)进行流量调度。 对于单机房止损场景来说,DNS流量调度的生效时间较层、依赖层的流量调度生效时间要慢很多,所以我们期望在发生某个业的局部单机房故障时,优先进行层、依赖层调度。提升止损时效性。 在单机房容灾能力、智能监控平台、流量调度平台的基础,启动单机房故障自愈工作的时机已经成熟。我们将会在下篇文章详细绍单机房故障自愈解决方案,敬请期待! 单机房故障机器人止损方法 单机房故障止损的能力标准 单机房故障自愈的常见问题 单机房故障自愈的解决方案
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
单机房故障自愈解决方案概述 百度AIOps框架,单机房故障自愈解决方案构建在运维知识库、运维开发框架、运维策略框架三个核心能力之。具体过程为自愈程序搜集分散的运维对象状态数据,自动感知异常后进行决策,得出基于动态编排规划的止损操作,并通过标准化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自动化运维平台之,实现了业在任意单个机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度大多数核心产品,止损效率较人工处理提升60%以。典型案例: 在8月28日某产品在单机房故障发生后1min55s完成止损。 在后续文章我们会继续绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设有哪些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障信息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险? 如何应对不同业流量调度策略和平台的差异?
s****d 2018-07-11
亿元级云用户分析
1.云目的分析 大型云用户云的宏观目的和普通用户类似,但多角色多部的利益诉求非常复杂。 降低成本:客户最直观的诉求,或者削减IT预算,或者同等预算下支撑更多的;其他客户诉求都难以清晰描述,唯独成本可以看发票和合同。 明确责任:客户不想承担各个IT系统的衔接和选型责任,相比软件厂商和系统集成商,云厂商的责任覆盖范围会更广泛一些。 收拢数据:云本身并不碰业数据,但云是很好明确业数据存储位置的机会,云业改造是规范数据结构的理由。 求新图变:企业客户在气势如虹时要居安思危,在困境危难之穷极思变,IT技术是企业的潜在增长点甚至退路。 本文讨论的是有模糊度和利润空间的云计算项目,CDN和IDC资源可以用做计收载体,但不能做为云目的分析。亿元以器、CDN的订单很多但既无技巧也无利润,这些资源厂商也在跟云厂商习如何包装项目。 2.客户角色利益分析 大企业多角色之间的利益诉求不同,所以表现形式也不同。我将客户三大角色列出来讨论,销售-售前-项目经理铁三角组合明确客户的诉求,才更好游刃有余的客户。
M****点 2018-07-10
国云计算现状——产品篇
云替代方案会被客户技术人员苛责,而技术人员会对云新出的方案很宽容。 CDN是最早出现也是最成熟的云计算,它有下列迷人的特点给云计算行业的未来立下标杆: 客户没有习成本,肯付费、懂IT常识就能接入,所有客户都认同使用CDN能节省成本提高质量。 客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和实质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,大不了切走就行,甚至有专立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨大蛋糕。 关于Serverless的绍,我建议大家搜一下ZStack张鑫的那篇文章。Serverless的实之处在于要求程序为自己进行改造,其他强调需付费的计算只是快速释放资源的小把戏,Serverless才是真正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其实SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联公司和亿国家级项目里用ntpdate+crond,一代架构师为什么有这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用健壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
追****圣 2018-07-11
给书记省长讲清楚云计算
云计算如何带动地方经济,这是个不需要物流就可以全球的行业。 做云计算要满足哪些条件,如何才能筑巢引凤。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 云计算不是万能药,它无法解决哪些问题。 什么是云计算 近20年来,互联引爆了全球的信息技术革命,我国借助这次技术革命的大好机会,已经追乃至领跑此次技术革命。 互联技术深刻的改变着我们的生活,其行业生态也在逐步分化扩大,这一现状客观促进了云计算技术的发展。 世纪80年代,计算机仅应用于科研等少数行业,全国计算机从业人员不超过万人,从业人员大都有很深的术背景。 世纪90年代,户、论坛、邮件系统开始影响部分群众的生活,国内从业人员约为十万人,可以分为软件和硬件两类工程师。 进入2000年,无纸化办公、游戏、社交、电商改变了大众的生活的方式,国内从业人员已经远超百万,技术分类有数十种工程师。 在最近的十年,移动互联兴起,便捷的通信、打车、外卖、电子支付等功能层出不穷,所有面向个人消费者的行业都在加速互联化;未来十年里,计算机技术将深刻影响工业生产领域。这时问题出现了,我们需要千万名工程师吗,我们有这么多工程师吗?
p****d 2018-07-11
单机房故障自愈--运维的春天
水位限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。 如果安全水位线提供的容量不足以满足止损,那我们期望使用两条间的容量buffer,同时流量调度过程进行分步试探,避免一次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,实现故障的恢复。 2业线止损策略需求差异大 【问题描述】 我们实现了基础的单机房故障流量调度止损算法,但在部分业线仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个游,多个游的重要程度不同,优先保证重要稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招一个研究这事的工程师,云确实也很有意义啊。 夜静人稀,沙子龙关好了小,一气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又一笑,“不传!不传!”----老舍《断魂枪》
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家有故障,用一家就知道一家的短处才是正常,只有前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思路完全不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍规模,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 络抖动 现在云平台已经都用SDN组,SDN本质是“软件定义络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会有络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统络略差的。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
云平台卖的都是,靠销售体系打下单子来只是万里长征第一步。如果云厂商做不好,公有云没有消费额,私有云可以换别人家的软件授权;如果云厂商做好大客户的技术,完全可以从备胎公有云变为主力公有云,私有云群集也月月有扩容。各位投标标的CDN厂商已经领教过客户的切量神功了,而云主机等资源的切换也会越来越简单方便。 过去的案例 我们先看四个生产环境案例。 案例1.有外售型私有云客户要把虚拟机的内带宽从1G扩充到4G,沟通后发现是最终用户要在单虚拟机跑大流量应用。我就劝客户技术工程师,卡改QoS不难,但宿主机卡才10G,你们是愿意一台物理机只跑两台虚拟机,还是愿意停机扩容物理卡。客户技术工程师认同让最终用户采用LB加多台虚拟机,比改QoS和停机加卡更可靠。但最终用户宁愿纠缠客户技术人员也懒得如何用LB,我给支招说我们的操作人日免费送,但硬件改造成本有20万,问这用户只是想试试还是改完卡就能付费。最后该用户果然只是想试试,我们和客户技术部都躲过一场折腾。 案例2.有个IDC新线一套外售型私有云,运营负责人第一次操盘公有云心里痒痒,总是提需求但总被我拒绝。
布****五 2018-07-10
如何执行一条命令
部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维过程重要的一环,频繁的交互意味着频繁的部署。部署过程可以拆解为两个小的步骤,一是新软件包的传,二是进程的重新启动。进程的重新启动不必多说,软件包的传可能有多种方式,如sftp的集式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时信息(前期文章《百度大规模时序数据存储》绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在站类应用,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散操作就越爽,但全局操作开销更大更难控制。 实时改异步是我的最后一IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等一宿。架构师将一个无脑大事拆分成多个小事,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的小事需要更高业层级做全局事保障。 在群集性能规划络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典机系统就是央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
TOP