关于 荥经县找小姐妹子服务〖8843O306VX〗服务真实傧喊把兔霉 的搜索结果,共1180
h****e 2018-07-10
程序:我从哪里来?
在BNS系统中,单元表示一个例集合,一般以三段式的结构表示,比如:server.noah.all,server表示名,noah表示产品线,all表示机房名称,单元的名字在系统中是唯一的。 使用场景 在程序员的日常工作,常常面临以下的场景: 场景 场景一:我是一名OP工程师,负责几十个系统模块的运维,我常常需要登录部署的机器排查问题,但是只知道名,记不住那么多部署信息,怎么办? 场景二:我是一名RD工程师,我负责的需要扩容,我的是很多下游的依赖,的扩容怎么通知给下游模块? 场景三:我的部署例有一个出现故障了,我想对下游屏蔽该故障例,怎么办? 下面以一个简单的例来说明,假设一个模块名是Server,它的上游是Proxy,下游是Redis,当出现变更或者故障时,如何让上游感知到呢? 当新增上线例、下线摘除例或者例发生故障时,BNS系统通过部署在机器上的客户端时感知到例的状态变化,同时新增和删除例的变更情况会立即同步到分布式的缓存系统中,这样用户通过一个BNS名字就可以感知到下游的例变化。
w****0 2018-07-11
单机房故障自愈-黎明之战
那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。 单机房故障止损流程 一个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品
个人产品理是一个需要梦想和热情的职业,但在政企和工业级IT领域,能力比梦想更重要。 本文是想说清楚,政企和工业级软件领域,能力比梦想更重要,个人产品理来到这个行业就会被秒成渣。如果一个企业要招产品理,要知道这个行业有哪些难点痛点,需要什么样的产品理(其是软件和设计师)。 1. 需求拆解的能力 个人产品理在设计一款APP时,是可以用生理上的主观感受给产品打分的。但是让一个产品理来设计个流水线自控系统,他的主观感受并不重要,必须用技术和业能力将客户需求描述和引导。某些产品理因为自己毫无感受憋不出词来,就客户的要求当做圣旨跪拜,这不仅是吃里扒外,还是会搅黄项目的搅屎棍。 要拆解客户的需求,必须技术上能跟客户做平等对话,业上了解客户工作流程,还要理解大型客户内部的利害关系,不能靠“视察”客户会议室装专家上宾,也不能像外行一样凡事都跪问客户。 我举第一个例是很多系统都有监控,监控系统的产品理要完成下列工作才合格: 技术:产品理对“check tcp 80”和“check http 200”这类业术语没概念,需要客户被坑一次骂一次才能改一点点。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
前言 沙龙的镳局已改成客栈。东方的大梦没法不醒了。----老舍《断魂枪》 云计算大潮到来了,我IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们常顺手就他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
M****点 2018-07-10
中国云计算现状——产品篇
当客户的非CDN云资源采购金额过500万以后,其项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚。但具体参与过程中,这类工作很少有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一时一千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为型云计算企业因为资质、高层合作、客户关系等原因没有投标的机会。 我们常遇到咨询标,但我们也不想投这个标。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
同样固有的印象是光纤必须从运营商那里租,而且价格很贵还必须买波分设备等等;其现在企业专线的市场竞争很充分,拉同城裸纤一公里也就几百块钱,而且短距离裸纤也不值得上波分设备,直接对接模块即可。 二、NTD是试金石 我对裸光纤是门外汉,但同样的技术误解让我想到了NTP,我一直拿ntpd和ntpdate当做初中级系统工程师的试金石,分不清就月薪五千,分得清就八千以上(2014年市价)。但很多货的IT专家也在此事上跌倒,我也希望通过聊清楚一层误会,说明高级工程师该少迷信多思考。 NTP是网络时间协议,它是多项传输、计算、加密技术的核心参数。 假设我认为TCP连接超时断开链接了,你怎么给我传输数据; 玩各种定时给奖励收益的花园营类游戏,我常通过修改时间快速刷分; 你的系统时间不对网银都会拒绝登陆,因为加密程序算不出双方认可的Token。 三、正确的时间是向量 Linux环境下有两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。
s****d 2018-07-11
亿元级云用户分析
3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列等的模板化云主机,决定资源池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资源池的包装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家有本难念的。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
流****水 2018-07-11
度云企业级运维平台——NoahEE
很多同学在看了这些文章后,都在想如何这些领先的运维技术与理念用到自己的工作中,但苦于建设运维平台不是一蹴而就的,成本也让人望而却步,于是不少同学都在希望我们能够有一个产品的形式输出这些技术,方便将这些前沿技术运用到自己的工作环境中。 在分析了各行业的运维场景与需求,结合百度历年来运维的验与技术沉淀,并过运维团队的精心打磨后,今天我们可以很骄傲的给大家呈现这个百度的运维产品企业版 – NoahEE。 在介绍NoahEE之前,有必要说一下百度内部的统一自动化运维平台Noah。Noah来源于圣中“诺亚方舟”的故事,我们用这个名字来寓意能够避免灾难,稳固而坚的平台。作为一系列运维系统的集合,Noah包括了管理、机器管理、资源定位、监控报警、自动部署、任调度等等,已了百度数年之久。我们推出的NoahEE(Noah Enterprise Edition)脱始于Noah,为企业提供了一站式运维解决方案,覆盖了包括日常的故障管理和变更管理中典型的运维场景,致力于为政企、金融、教育等行业提供业可用性保障、提升运维效率。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常信任某个云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该云快速切过来并坐站住了,这份暗中相助就是靠个人商誉带来的信任。 我和大客户谈故障的时候,喜欢详细故障原因刨析给客户,企业客户是讲道理的,不要糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让信赖你的客户受伤又受骗。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
追****圣 2018-07-11
给书记省长讲清楚云计算
最后一类是系统集成企业,这类厂商已地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要大量雇佣本地劳动力,无法解决大批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环保减排问题,但其带来的环保节能问题很严重,每个数据中心都会占用大量电力。 对于四线城市政府和中型国企,因为现困难资源有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资源。
小****园 2018-07-10
让PB级云存储不再神秘
云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。考察案例性的方法主要靠听对方能否自圆其说,甚至让多个厂商当面质疑,能逻辑自治的厂商终归还是靠谱一些。 大客户对云端数据的处理的要求比中客户更简单,因为复杂业功能可以自己做,还可以要求厂商为自己做定制开发。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
m****t 2018-07-11
设计中立公有云云管平台
如果云平台面对的客户需求很简单,那可以每个用户默认只有一个VPC一个网就可以现基本功能;NAT端口映射、VPC互联、VPN路由等高级功能都是可选功能。当前安全组功能繁琐而混乱,大部分客户需要的只是管控对外开放端口。 负载均衡是云平台唯一必备的PaaS,因为VPC环境下很难做keepalived和heartbeat。客户在VPC里只能搭建没有HA的LB,还不如LB整体外抛给云平台解决。从技术上说负载均衡必备的是按源IP分配的TCP负载均衡,让这个负载均衡主要做HA用,后端可以再接用户自定义的LB;但是各大云平台都已支持HTTP/HTTPS/UDP负载均衡,云管平台可以一开始就四七层负载均衡功能都开放给用户。 第四附加云资源 前文的必要云资源是狭义但典的云资源,其主要目的是将物理资源抽象化输出资源池化调用。而另一些上云更多是技术上强调自己接入了VPC,或者强调自己开箱即用、无限扩容。云管平台集成这些资源是为了节省用户人力和统一出账单,在人力和工期紧张时,下列我们一个也不做,让用户自己在虚拟机上搭建;在人力和时间富裕状态,我们要认评估如何接入
TOP