关于 小妹找服务全套v信78792796 顺义后沙峪按摩有服务上门按 的搜索结果,共1467
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 哪些,不同的游流量如何分配? 3.我往哪里去? 的下游哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专讨论过)。一般的业线具不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键线部署系统——Archer。Archer致力于提供一产品线过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
雪****魁 2018-07-11
危险背的机遇--云故障危机分析
大客户在吃够了厂商的亏以,会选择任能个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 个客户非常任某个云销售,他告诉该销售,虽然某大云高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制问题,出故障从来都是衙话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以,企业的核心竞争力仍然是商誉的销售-售前-售团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让赖你的客户受伤又受骗。
M****点 2018-07-10
中国云计算现状——产品篇
Serverless的实之处在于要求程序为自己进行改造,其他强调需付费的计算只是快速释放资源的把戏,Serverless才是真正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其实SaaS产品和狭的云计算没一毛钱关系,广的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。 SaaS产品已经出现并流行了十几二十年了, OA/ERP/CRM/邮箱/模板建站等等SaaS都是比各位读者从业年龄还长的老古董,最新流行的各种在线办公、协作、通话、众测等SaaS产品也不依赖云器,这些应用云走公网和之前走内网区别并不大,用物理机和虚拟机区别也不大。 狭的云计算是企业,目标用户的是企业IT技术人员,而SaaS云的目标用户和IT人员只在Helpdesk时关联。 从这一点来看,这些SaaS只是云平台的普通用户,和游戏、网站、APP、没区别。只要SaaS云没自建IaaS和PaaS的技术能力和意图,那他们就是客户而非友商。
流****水 2018-07-11
度云企业级运维平台——NoahEE
对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、架、机架变更,直到设备下架、出库生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、架工单即可在管理中看到该器并进行管理,无须任何其他操作。一图胜千言,我们看看资产管理的特点: 图3 资产管理 部署管理 应用部署一直是运维工作中的重点,一般来说,我们面临的问题: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行流量线测试,待效果达到预期再扩大部署? 回滚难,发现问题怎样回滚? 面的第一个问题,实际管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。在部署管理模块中,我们可以方便的定并发度、部署步骤、影响范围以及暂停操作等,在部署的过程中发现问题即可暂停并回滚至之前的状态。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然Mysqld等需要监听端口的启动失败。 记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招一个研究这事的工程师,云确实也很啊。 夜静人稀,子龙关好了,一气把六十四枪刺下来;而,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又微微一笑,“不传!不传!”----老舍《断魂枪》
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
运维人员的职责由处理转向管理,最终运维人员在低压力值班中保证稳定运行。 单机房故障自愈解决方案概述 百度AIOps框架中,单机房故障自愈解决方案构建在运维知识库、运维开发框架、运维策略框架三个核心能力之。具体过程为自愈程序搜集分散的运维对象状态数据,自动感知异常进行决策,得出基于动态编排规划的止损操作,并通过标准化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自动化运维平台之,实现了业在任意单个机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度大多数核心产品,止损效率较人工处理提升60%以。典型案例: 在8月28日某产品在单机房故障发生1min55s完成止损。 在续文章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中哪些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险?
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
几个业内好友都明确说一根裸光纤最多跑10G带宽,而于老板明确表示裸光纤任何一个波分(或者不做波分)都可以跑100G以来我和于老板深究原因,不可能几个朋友都骗我或者都蠢,很可能前些年光纤波分机自己只能甩出10G口,或运营商租光纤餐里只10G规格,给大家造成了裸光纤只能跑10G带宽的印象。同样固的印象是光纤必须从运营商那里租,而且价格很贵还必须买波分设备等等;其实现在企业专线的市场竞争很充分,拉同城裸纤一公里也就几百块钱,而且短距离裸纤也不值得波分设备,直接对接模块即可。 二、NTD是试金石 我对裸光纤是外汉,但同样的技术误解让我想到了NTP,我一直拿ntpd和ntpdate当做初中级系统工程师的试金石,分不清就月薪五千,分得清就八千以(2014年市价)。但很多货真价实的IT专家也在此事跌倒,我也希望通过聊清楚一层误会,说明高级工程师该少迷多思考。 NTP是网络时间协议,它是多项传输、计算、加密技术的核心参数。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会自定SLA标准——大部分API云连等待超时都没定。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其实都和云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也无法使得恢复正常。
追****圣 2018-07-11
给书记省长讲清楚云计算
云计算如何带动地方经济,这是个不需要物流就可以球的行业。 做云计算要满足哪些条件,如何才能筑巢引凤。 挑选合格的云计算合作厂商,每类厂商哪些特点。 云计算不是万能药,它无法解决哪些问题。 什么是云计算 近20年来,互联网引爆了球的息技术革命,我国借助这次技术革命的大好机会,已经追乃至领跑此次技术革命。 互联网技术深刻的改变着我们的生活,其行业生态也在逐步分化扩大,这一现状客观促进了云计算技术的发展。 世纪80年代,计算机仅应用于科研等少数行业,国计算机从业人员不超过万人,从业人员大都很深的学术背景。 世纪90年代,户、论坛、邮件系统开始影响部分群众的生活,国内从业人员约为十万人,可以分为软件和硬件两类工程师。 进入2000年,无纸化办公、游戏、社交、电商改变了大众的生活的方式,国内从业人员已经远超百万,技术分类数十种工程师。 在最近的十年,移动互联网兴起,便捷的通、打车、外卖、电子支付等功能层出不穷,所面向个人消费者的行业都在加速互联网化;未来十年里,计算机技术将深刻影响工业生产领域。这时问题出现了,我们需要千万名工程师吗,我们这么多工程师吗?
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
但最终用户宁愿纠缠客户技术人员也懒得学如何用LB,我给支招说我们的操作人日免费送,但硬件改造成本20万,问这用户只是想试试还是改完网卡就能付费。最该用户果然只是想试试,我们和客户技术部都躲过一场折腾。 案例2.个IDC新线一外售型私云,运营负责人第一次操盘公云心里痒痒,总是提需求但总被我拒绝。他想开放注册并给新用户大量赠额,而我跟他聊运营数据,让他同意赠送用户并不能带来多大收益。他说在主机和网络性能测试没友商好,我跟他说明权威测试方法和意,让他相友商性能比他好就是作弊或者烧钱。他想不同客户不同产品给不同折扣,我们研发人员半年内没这个排期;我们已经充分的任,我就直接告诉他我做不过来,给用户充值赠送同样可以达到折扣效果;给云资源做独立折扣我们要收开发费用,而且这不是强需求。(这些运营问题都是2015年的,可能略老化) 案例3.客户被同集团的云计算子公司的欲哭无泪,我们接盘时提了一大堆需求,我同样是拒的比接的多。客户问能利旧设备么,我认为利旧设备的配置都太高啦,还不如租我们的廉价器。
小****园 2018-07-10
让PB级云存储不再神秘
述存储手段只是落盘手段,作为存储组件还要通盘考虑下列问题。 磁盘故障时的修复性能。 商用磁盘都是照36-60个月的使用周期设计的,假设你6000块磁盘每个月要坏100块盘,天天坏盘天天修盘已经成为常态。厂商要保证损坏磁盘快速修复,避免修复周期内另外几块冗余盘一并损坏,又要保证磁盘修复时群集性能受不了太大影响。 当前大家都采购4T8T硬盘,照磁盘序写入300M的速率,填满一个磁盘的数据需要10个时以,最通用的处理方案是将一块4T盘分为40个PG,40个PG逃逸到40块新盘速度就在30分钟以内,而且没消耗新磁盘太多IO。磁盘修复时的IO放大解决方案但很复杂且涉密,本文不提及。我只透露前文不让做单节点性能压榨就是防着这类异常情况,http下载场景中引入缓存可以减少重复读取的压力。 群集动态扩容能力。 很少项目是线就建设50PB的容量,并在半个月内部数据就位。对象存储群集刚建成只几十个机柜几千兆带宽,续群集容量和性能都要动态扩容。存储系统扩容不要做无意的数据重新分布,因为数据重新分布可以理解成磁盘修复,太容易出性能类故障了。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用,无状态-会话保持-弹性伸缩等技术应用纯熟。端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但局操作开销更大更难控制。 实时改异步是我学的最IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等一宿。架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级局事保障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律章可循的。 一个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
m****t 2018-07-11
设计中立公云云管平台
我一直不理解Nova和Swift如何从业联动,做虚拟机时跟客户解释买虚拟机不关心OSS,做对象存储时解释OSS和其他云平台没什么好混合的。云厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过云管平台直接采购,客户一年可能只节省几十块钱。云管平台要集成OSS和CDN时,一定要注意这两个是没区域概念的,比如客户用了百度北京的虚拟机加七牛浙江的云存储和阿里国的CDN,此时客户业绝对跑的通,三方互通额外网络开销。云管平台的资源创建和计费系统都要考虑清楚,尽量资源走一个供应商,或要求不同供应商之间相互免费。 述PaaS资源都一个特点,可以照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文一些更专业(偏)的。 容器云入槛太高,在中客户场景下缺乏成功案例,如果没具体项目要求容器云,就等到接完面的PaaS再考虑接入容器云。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件包的传,二是进程的重新启动。进程的重新启动不必多说,软件包的传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意所在。
p****d 2018-07-11
单机房故障自愈--运维的春天
固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切流量导致多个机房发生故障。 容量保护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充足,容量充足则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍buffer可以进行部分止损。期望能够在不超过容量保护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安水位线:流量处于在安线以下则风险较,可以一步进行切换。 水位限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。
M****H 2018-07-11
故障定位场景下的数据可视化实践
基于面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩故障范围,到故障根因: 局问题定位:快速确认线状态,缩故障判定范围。为可能的止损操作提供判断依据。本文会介绍如何构建一个景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进一步缩问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:一些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如线变更、运营活动导致的故障。本文针对导致故障占比最高的变更线类故障进行分析,看如何快速到可能导致故障的变更事件。 景掌控缩范围 对于一个乃至一条产品线而言,拥一个布局合理、息丰富的景监控仪表盘(Dashboard)对于状态景掌控至关重要,因此在百度智能监控平台中,我们提供了一款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自由灵活的组织仪表盘布局,配置所需要展示的数据息。
TOP