关于 找服务小妹一条龙薇78792796平顺县上门按摩服务全 的搜索结果,共1617
h****e 2018-07-10
程序:我从哪里来?
对应面几个场景,BNS提供了以下的解决方案: 场景:用户想登录Proxy模块的第个实例,可以通过ssh 1.proxy.noah.all.serv 方式登录。 我们基于BNS开发了nsswitch的扩展,并且修改了/etc/nsswtich的配置文件: hosts files dns bns 在主机需要解析1.proxy.noah.all.serv 的时候,般会直接或者间接的调用glibc提供的gethostbyname_r函数,而glibc在实现gethostbyname_r时,会照nsswitch里配置的序files- dns- bns序进行处理,这样就实现了通过BNS登录机器。 场景二:Server模块扩容,希望游及时感知到下游模块的变更。 用户在BNS进行Server模块的扩容,模块实例变化信息会立即同步到BNS系统中的分布式缓存,在网任意台机器,通过查询就能实时获取到实例变化的详情。 场景三:Redis模块3.redis.noah.all实例故障了,希望对游屏蔽该实例。
疏****月 2018-07-09
线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的下,让数据自动生效》中专讨论过)。般的业线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供个灵活、稳定的部署系统是运维台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理台Noah发布了线部署系统——Archer。Archer致力于提供套产品线过程的可迁移发布解决方案,实现键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为个环节结合进整测试发布流水线中。
流****水 2018-07-11
度云企业级运维台——NoahEE
随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例子。这个例子中,地图研发的同学就可以在运维台中选中导航的模块进行升级,运维台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加些指标采集任,并在件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安设备7x24时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,保你安心好睡眠文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有个实例或者多个实例部部署在同物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。
M****点 2018-07-10
中国云计算现状——产品篇
最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个个经典PaaS应该只是个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安性,而且企业仍然需要DBA承担设计维护工作。 对象存储是新兴需求,企业里本来就没大规模对象存储搭建能力,而且对象存储对应用程序友好手简单,客户对它是积极拥抱甚至业依赖。旦用户在对象存储台堆积了TB的数据,大数据和AI分析应用自然就部署来了。广域网传输稳定性不够成本又过高,只能是计算组件跟着存储就近部署,PaaS云创业公司从对象存储入手才更有客户粘性和横向扩展空间。 大数据类PaaS类似于云数据库,用户要自带海量数据过来,Mapreduce过程和结果又都要用户负责,最终客户觉得云台什么都没做,大数据PaaS都用成IaaS定制模板虚拟机了。
s****d 2018-07-11
亿元级云用户分析
资源持续--亿元大客户不要求云台永不故障,但要云台承诺清晰SLA,事后给个合理的故障报告。 后记 如我在《复制阿里云并不难》中所说的,个云行业半个IT界”,云行业将垄断IT界半的营收和利润。本文讨论的亿元大项目,目标就是拿下IT圈的营收限。现在亿元大单都是云厂商在侵入系统集成商的势力范围,后面云厂商会得到越来越多的亿元大单。
m****t 2018-07-11
设计中立公有云云管
云厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过云管台直接采购,客户年可能只节省几十块钱。云管台要集成OSS和CDN时,定要注意这两个是没有区域概念的,比如客户用了百度北京的虚拟机加七牛浙江的云存储和阿里国的CDN,此时客户业绝对跑的通,三方互通有额外网络开销。云管台的资源创建和计费系统都要考虑清楚,尽量资源走个供应商,或要求不同供应商之间相互免费。 述PaaS资源都有个特点,可以照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文些更专业(偏)的。 容器云入槛太高,在中客户场景下缺乏成功案例,如果没有具体项目要求容器云,就等到接完面的PaaS再考虑接入容器云。 反DDOS攻击只能由云厂商提供,因为开销偏大计费不灵活,但又没有日常管理需求,客户到云管台到厂商沟通时直接用邮件、工单和合同即可,如果没有频繁攻击和检测需求,可以不留展示界面只用邮件通知。
追****圣 2018-07-11
给书记省长讲清楚云计算
器就是高功耗高价格的专业电脑,云计算企业的采购规模般远大于政企集采,他们能从硬件厂商那里拿到极限低价,政府和国企能提供的更多是采购资金的支持。 云计算是个商业,不仅需要硬性支持,还需要足够的环境和政策支持。当前云计算公司聚集在线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不解可能就会封禁大批互联网,但道封网命令就可以毁掉个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动寻求合作。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信任度下降、给竞品占领市场机会等。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招个研究这事的工程师,云确实也很有意义啊。 夜静人稀,沙子关好了气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水复制扩容,在网站类应用,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但局操作开销更大更难控制。 实时改异步是我学的最后IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等宿。架构师将个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表样,拆散的需要更高业层级局事保障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是对应。 3.
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
附录2:网个写NTPD和ntpdate的水文和本文内容有些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往走的软件质量还不如XXXX,此处省略万五千字,客户自己揣吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍样,脸疼了就把屁股凑过来,屁股疼了就捏捏脸,般不会只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心里要有秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不墙,故障的性质对长久的品质很重要。 我列下潜在的故障原因,哪些故障能忍,哪些故障不能忍,这些要云客户自己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没有特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确实客户要自认倒霉,因为友商也会遇到同样问题。 现在容易出问题的是云台的运营维护和云厂商的自定义管理模块,客户就是缺合格运维才被逼的云台,但云厂商自己也缺人;在软件BUG这部分我已经吐槽过做云台外延模块程序员的技能水了。这些地方出了问题该投诉投诉、该索赔索赔,逼着客户去招更敬业专业的工程师。
M****H 2018-07-11
故障定位场景下的数据可视化实践
基于面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩故障范围,到故障根因: 局问题定位:快速确认线状态,缩故障判定范围。为可能的止损操作提供判断依据。本文会介绍如何构建景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进步缩问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如线变更、运营活动导致的故障。本文针对导致故障占比最高的变更线类故障进行分析,看如何快速到可能导致故障的变更事件。 景掌控缩范围 对于乃至产品线而言,拥有个布局合理、信息丰富的景监控仪表盘(Dashboard)对于状态景掌控至关重要,因此在百度智能监控台中,我们提供了款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自由灵活的组织仪表盘布局,配置所需要展示的数据信息。
小****园 2018-07-10
让PB级云存储不再神秘
SSD文件存储,这其实是标准三副本存储的SSD版本,般用来存储文件,SSD盘再贵也比缓存的内存便宜。文件存储的数据总量不大,般在本盘存储即可,不用导入纠删码存储中。 述存储手段只是落盘手段,作为存储组件还要通盘考虑下列问题。 磁盘故障时的修复性能。 商用磁盘都是照36-60个月的使用周期设计的,假设你有6000块磁盘每个月要坏100块盘,天天坏盘天天修盘已经成为常态。厂商要保证损坏磁盘快速修复,避免修复周期内另外几块冗余盘并损坏,又要保证磁盘修复时群集性能受不了太大影响。 当前大家都采购4T8T硬盘,照磁盘序写入300M的速率,填满个磁盘的数据需要10个时以,最通用的处理方案是将块4T盘分为40个PG,40个PG逃逸到40块新盘速度就在30分钟以内,而且没消耗新磁盘太多IO。磁盘修复时的IO放大有解决方案但很复杂且涉密,本文不提及。我只透露前文不让做单节点性能压榨就是防着这类异常情况,http下载场景中引入缓存可以减少重复读取的压力。 群集动态扩容能力。 很少有项目是线就建设50PB的容量,并在半个月内部数据就位。
嘟****y 2018-07-11
大型企业适用的云台账户体系
这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。但套用过去管理虚拟机的经验,管理IaaS和PaaS时要有资源池隔离,不同部和项目的主机资源要分别计费和管理。 个很常见的场景是,人事部的OA系统申请了15万云主机费用,生产车间的ERP和销售部的CRM系统不设限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没有资源池的概念,就是个账户管所有资源的“大通铺”模式,客户要把脚趾头都掰完了才能算清各项目的消费金额;万台调整了资源价格,较真的客户又要从头重算次。 这个“大通铺”最尴尬的不是计费繁琐,而是个账户下所有资源毫无权限隔离,客户或者只有个人去登录云台,或者将不同业注册完孤立的账户。互联网公司无法理解传统企业和自然人有关的流程是多沉重,客户选个云台管理员完成所有操作,客户的项目越多管理员员就越晕越累。
TOP