关于 小妹SPA会所十薇v信78792796通州土桥服务epmryx阳 的搜索结果,共999
h****e 2018-07-10
程序:我从哪里来?
在BNS系统中,单元表示一个的实例集合,一般以三段式的结构表示,比如:server.noah.all,server表示名,noah表示产品线,all表示机房名称,单元的名字在系统中是唯一的。 使用场景 在程序员的日常工作,常常面临以下的场景: 场景 场景一:我是一名OP工程师,负责几个系统模块的运维,我常常需要登录部署的机器排查问题,但是只知道名,记不住那么多部署息,怎么办? 场景二:我是一名RD工程师,我负责的需要扩容,我的是很多下游的依赖,的扩容怎么知给下游模块? 场景三:我的部署实例有一个出现故障了,我想对下游屏蔽该故障实例,怎么办? 下面以一个简单的例子来说明,假设一个模块名是Server,它的上游是Proxy,下游是Redis,当出现变更或者故障时,如何让上游感知到呢? 当新增上线实例、下线摘除实例或者实例发生故障时,BNS系统过部署在机器上的客户端实时感知到实例的状态变化,同时新增和删除实例的变更情况立即同步到分布式的缓存系统中,这样用户过一个BNS名字就可以感知到下游的实例变化。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,常需要人工止损,但人工处理的时效性影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且给公司带来直接或间接的损失。
追****圣 2018-07-11
给书记省长讲清楚云计算
客户的数据放在云平台就像资金放在银行一样,银行可以根据储户的流水评估用,央行可以对货币进行宏观调控,云平台一样可以对用户息进行评估计算,甚至国家层面可以进行宏观管理调控。 综上述,云计算就是将分散在各个公司的息技术资源汇聚到一个大平台,其兴起始于需求扩大而人力短缺,其未来发展趋势是过规模经营和数据共享,成为新型息化社的技术基石。 云计算如何带动地方经济 云计算落地是要自建数据中心机房,我们一般称之为云基地,云基地在经济利益和社影响上和传统工厂并不相同。云基地俗易懂的展现形式就是开启数万个高速运转的电脑铁皮箱,但这些电脑不用接显示器也不用人员现场操作,只要这些电脑能开机能上网就能对外。云基地和数字地产不完全相同,数字地产只装修好房子,云基地关注用这些房子做什么。 云基地是无烟工业,并不需要雇佣大量人口,对直接促进就业帮助不大;但云计算没有实体矿产投入和物品产出,只需要大量电力启动电脑也不产生大量污染。 云基地像电视台和号塔一样,过产生和扩散数据息对客户提供,这些息的传输没有物流成本,光速直达全球每个角落。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目任,不相t1越过t2直接达到t3(即断档跃变),而t2减去t1得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能带来时间的断档跃变或者停滞和回逆。时间不稳威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设一个根NTP不稳定,有的器获得了错误的时间,虽然现在业层可以包容异常,不出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
布****五 2018-07-10
如何执行一条命令
无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义在。 面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前文述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几万台机器上每天执行几亿条命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24时稳定运行,就不是一件简单的事情了。谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令息持久化。日均几亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
我不将它压到箱底,偶尔我也练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题滴滴乱叫,而网卡和硬盘插不插都无谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
供应商用“认证”“审核”这类词跟甲方说话就是态度不端正,这又是一句“客户你好,你要从管理,爱审不审,不审就滚”。这类甲方的身份资料是公开的,也不恶意赖账,这时应该由乙方主动记录合规息,后台透明完成功能开,设置消费和透支上限。 假设客户是成长型公司,以前CEO创建的账户让员工继续使用。某天CEO被老婆打了一顿,因为他的网购记录有给“丽丽”订花和开房;或者网警约谈该倒霉蛋,警告他不要用网盘传播非法视频;也可能CEO打开聊天工具,发现自己很多幼稚鸡汤文给投资商。不要误是有人要整这个CEO,SSO单点登录多项,同事用混了账户也正常。 如果客户放弃使用某云之后,原账户不注销滚动欠费几千万怎么办?云巨头们都是横向一体化经营,搞不好和客户有竞争,霸王注册条款下的法风险确实存在。 一个企业的账户不应该由客户注册,而是供应商主动提供,像IDC和CDN就主动给客户提供查带宽的账户。这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。
小****园 2018-07-10
让PB级云存储不再神秘
3、大型用户谨慎选型 大型用户即使只存储1PB,每年也要花100多万了;中型客户只要做选型,而大项目不仅要选型和定制,还有更多技术以外的东西要考量。 首先同样说价格问题,大型客户比中客户更难办,客户是嫌价格贵,大客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方真是赔本卖吆喝,成功了就甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的实际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证真实性。厂商做过PB级项目但其实是一群TB项目做的计费融合,厂商确实做过数百P的项目却和标准对象存储功能不用,这类事情太多了,对象存储合同上不有总容量,发票存根也只是简单的费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署用场景 在百度内部,用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2示)。用户过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent过心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
M****点 2018-07-10
中国云计算现状——产品篇
SaaS产品已经出现并流行了几二年了, OA/ERP/CRM/邮箱/模板建站等等SaaS都是比各位读者从业年龄还长的老古董,最新流行的各种在线办公、协作、话、众测等SaaS产品也不依赖云器,这些应用上云走公网和之前走内网区别并不大,用物理机和虚拟机区别也不大。 狭义的云计算是企业,目标用户的是企业IT技术人员,而SaaS云的目标用户和IT人员只在Helpdesk时有关联。 从这一点来看,这些SaaS只是云平台的普用户,和游戏、网站、APP、没有区别。只要SaaS云没自建IaaS和PaaS的技术能力和意图,那他们就是客户而非友商。 四、物理机-混合云-云管平台 云主机是物理机的最好替代方案,但也有各种物理机无法被替代的场景需要继续用物理机。 某些云主机的超卖比过高,性能太差,又因为各种原因不更换云厂商,那只能基于性能原因用物理机。 某些硬件特性虚拟机还没模拟出来,或者你模拟了我也不,比如说Oracle RAC就偏爱硬件存储。 某些非TCP/IP资源必须接专用板卡,比如说接电话网络的器,接专用器材的器,接加密狗的器。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常遇到如下问题导致无法过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点在机房或单点自身发生故障时,无法过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障给产品线带来全局性影响。同时流量调度也无法使得恢复正常。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不说话,以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,选择任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常任某个云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有心向客户证明,换了其他厂商也一样挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让赖你的客户受伤又受骗。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
2、进行云计算器维护;几大云供应商自己也要维护器,那些大中型企业肯定自己做私有云,在这个云计算平台里也是需要运维人员进行从低端监控到高端架构的一系列维护工作,但自动化运维技术让运维人员的数量大大减少,可能每个公司都只有一两个团队了。 3、进传统行业继续做运维;笔者就是在一个讯公司工作,我可以很乐观的说云计算对公司造成有限的技术革新,比如说实现OS的虚拟化。我们需要的SIP必须亲自搭建,阿里盛大新浪都没得卖,甚至因为硬件和网络限制让我们很难使用虚拟机;而外宣网站一类的东西根本不是我们的核心竞争力,能用就好效率低一些没关系。除了讯公司之外,生产领域(比如管理生产线)也有类似的顾虑,云计算的优势和公司的业需求完全不沾边,以这类公司的运维可能是最后的运维。大家找工作的时候都习惯找网站相关的工作,但你学过Web就一定要找网站工作是挺蠢的行为,危邦不入乱邦不居,最好不要涉足一个没有前途的行业。
TOP