关于 兴文县找个小姐过夜服务一条龙〖8843O306VX〗服务真实兔 的搜索结果,共1809
h****e 2018-07-10
程序:我从哪里来?
在BNS系统中,单元表示例集合,般以三段式的结构表示,比如:server.noah.all,server表示名,noah表示产品线,all表示机房名称,单元的名字在系统中是唯的。 使用场景 在程序员的日常工作,常常面临以下的场景: 场景 场景:我是名OP工程师,负责几十系统模块的运维,我常常需要登录部署的机器排查问题,但是只知道名,记不住那么多部署信息,怎么办? 场景二:我是名RD工程师,我负责的需要扩容,我的是很多下游的依赖,的扩容怎么通知给下游模块? 场景三:我的部署例有出现故障了,我想对下游屏蔽该故障例,怎么办? 下面以简单的例子来说明,假设模块名是Server,它的上游是Proxy,下游是Redis,当出现变更或者故障时,如何让上游感知到呢? 当新增上线例、下线摘除例或者例发生故障时,BNS系统通部署在机器上的客户端时感知到例的状态变化,同时新增和删除例的变更情况会立即同步到分布式的缓存系统中,这样用户通BNS名字就可以感知到下游的例变化。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,保你安心好睡眠中,我们介绍了单机房故障自愈的必要性和解决思路。本主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通流量调度进行止损: 1.存在单点 描述:系统内只有例或者多例全部部署在同物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
疏****月 2018-07-09
键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置件变更(数据变更由于其高频、大量的特点,我们已在数据传输章《嗖的下,让数据自动生效》中专门讨论)。般的业上线具有不定时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由上线变更触发,如何减少变更程中人为误操作,提供灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了键上线部署系统——Archer。Archer致力于提供套产品线全程的可迁移发布解决方案,键完成机器初始化、部署、添加模块监控、添加CT任、动态数据件的分发等全程的自动操作。在操作方面,Archer提供了命令行工具作为发起次上线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为环节结合进整测试发布流水线中。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动
首先被读取到的是/etc/fstab,各磁盘都挂载就位。这件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,件系统自检功能要不要开,这都可以聊好几时。 看看各的启动优先级也是讲究多多的程,iptables会比network先启动这类依存关系很好理解;但我也遇到云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动程,正式版的启动程可以写十万字,有趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招研究这事的工程师,上云确也很有意义啊。 静人稀,沙子关好了门,气把六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
这次验好玩的地方在于: 我定35分的任计划,结果ntpd将时间跃变越了第35分直接到了37分,但该任计划仍然执行了。而从执行输出结果是37分来看,这不是步快跑的踩35分,而是第35分被越了不存在。 这验里坑很多,人要和时间赛跑才能完成验,我做了8次验成功了3次,每次都等了10分钟以上。这验也不够严谨,我只是拿crond做验,我在梦里记得其他有历史守规矩的程序也能和ntpd联动,但我没时间做验了,也希望有朋友能帮我答疑解惑。 附录2:网上能写NTPD和ntpdate的水和本内容有些类似,那是我多年以前写的,不是借鉴和抄袭,严肃脸。
M****点 2018-07-10
中国云计算现状——产品篇
当客户的非CDN云资源采购金额500万以后,其子项目之间没有内网互通的需求,这时候该做跨厂商的云端资源管理方案了。现在虚拟机不能像CDN样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚。但具体参与程中,这类工作很少有成功案例,我做成功这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为型云计算企业因为资质、高层合作、客户关系等原因没有投标的机会。 我们经常遇到咨询标,但我们也不想投这标。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
单机房故障自愈解决方案概述 百度AIOps框架中,单机房故障自愈解决方案构建在运维知识库、运维开发框架、运维策略框架三核心能力之上。具体程为自愈程序搜集分散的运维对象状态数据,自动感知异常后进行决策,得出基于动态编排规划的止损操作,并通标准化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自动化运维平台之上,现了业在任意单机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度大多数核心产品,止损效率较人工处理提升60%以上。典型案例: 在8月28日某产品在单机房故障发生后1min55s完成止损。 在后续章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中有哪些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障信息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险? 如何应对不同业流量调度策略和平台的差异?
小****园 2018-07-10
让PB级云存储不再神秘
云存储里大都是多媒体数据,谁敢盗播打官司就好;日志件加密了就用不了云端大数据分析了,但不挂人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平台确没手段能自证清白,谁偷用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像区保安总共能看到你何时出门样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,自吹数据量有数PB,该司投资部去调了下他们的消费金额就取消投资了。单消费总金额就这么麻烦,访问日志可以看件数量、用户规模分布和大致的动作类型,企业最好还是把业分散在两厂商那里,毕竟他们两家不能核对你的账单。 最后就是有些领先大厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户自身业的阶段,技术采购决策人请把风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
流****水 2018-07-11
度云企业级运维平台——NoahEE
章概览 去的章为大家介绍了百度云智能运维的方方面面,从监控、部署等传统的运维技术到智能异常检测、故障自愈等智能运维技术,这些运维基础能力和黑科技,是十年来百度工程师对技术孜孜不倦求索的结果,也见证了百度运维十年间的创新历程。很多同学在看了这些章后,都在想如何把这些领先的运维技术与理念用到自己的工作中,但苦于建设运维平台不是蹴而就的,成本也让人望而却步,于是不少同学都在希望我们能够有产品的形式输出这些技术,方便将这些前沿技术运用到自己的工作环境中。 在分析了各行业的运维场景与需求,结合百度历年来运维的经验与技术沉淀,并经运维团队的精心打磨后,今天我们可以很骄傲的给大家呈现这百度的运维产品企业版 – NoahEE。 在介绍NoahEE之前,有必要说下百度内部的统自动化运维平台Noah。Noah来源于圣经中“诺亚方舟”的故事,我们用这名字来寓意能够避免灾难,稳固而坚的平台。作为系列运维系统的集合,Noah包括了管理、机器管理、资源定位、监控报警、自动部署、任调度等等,已经了百度数年之久。
布****五 2018-07-10
如何执行命令
部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维程中重要的环,频繁的交互意味着频繁的部署。部署程可以拆解为两的步骤,是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策程更是需要采集大量的时信息(前期章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,种是通软件提供的接口直接读取状态数据,另种是通日志/进程状态/系统状态等(如使用grep提取日志,通ps查询进程状态,通df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这基础能力,这也是今天我们的主题“如何执行命令”的意义所在。
s****d 2018-07-11
亿元级云用户分析
比资源更难量化的概念,我只引把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的施和结项都是以结果为导向的,明确的程控制和验收标准对供求双方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。 资源持续--亿元大客户不要求云平台永不故障,但要云平台承诺清晰SLA,事后给合理的故障报告。 后记 如我在《复制阿里云并不难》中所说的,云行业半IT界”,云行业将垄断IT界半的营收和利润。本讨论的亿元大项目,目标就是拿下IT圈的营收上限。现在亿元大单都是云厂商在侵入系统集成商的势力范围,后面云厂商会得到越来越多的亿元大单。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
追****圣 2018-07-11
给书记省长讲清楚云计算
最后类是系统集成企业,这类厂商已经地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是种商业形式,不能对它报以不切际的期望值。 云计算行业不需要大量雇佣本地劳动力,无法解决大批就业问题;云计算核心员工会呆在线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环保减排问题,但其带来的环保节能问题很严重,每数据中心都会占用大量电力。 对于四线城市政府和中型国企,因为现困难资源有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感趣的资源。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择信任能有人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有客户非常信任某云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这单子在客户执行层的暗助之下,该云快速把业来并坐站住了,这份暗中相助就是靠人商誉带来的信任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。
m****t 2018-07-11
设计中立公有云云管平台
以Mongodb为例,客户端会连接多mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。云管平台可选接入厂商满足中型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其挺尴尬的,理论上来说即使是内存缓存型也有双活机制,但是厂商PaaS的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年遇,大都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看很低可靠性的,也听朋友说本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库会不会在同物理机。所以前中我对中客户用PaaS当做节省自己搭建的人力,对大型重型PaaS需求建议案处理,因为各厂商通用的百倍赔偿根本就是免责款。 对象存储(OSS)和CDN。
若****客 2018-07-10
IT架构的本质--我的五点感悟
2.群集设计通用规则 前端复制后端拆,时改异步,三组件互换 前端复制后端拆,时改异步,IO-算力-空间可互换——要做架构就要上群集,而群集设计调优翻来覆去就是这三板斧: 前端是管道是逻辑,而后端是状态是数据,所以前端复制后端拆。前端器压力大了就多做水平复制扩容,在网站类应用上,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更大更难控制。 时改异步是我学的最后门IT技术,绝大部分“时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要时处理结果了。CS模式的时操作会给支撑带来巨大压力,Peer合作的时操作可能会让数据申请方等宿。架构师将无脑大事拆分成多,这就是异步架构,但拆分事就跟拆分数据表样,拆散的需要更高业层级上做全局事保障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
生产领域的公司因为运维涉及到在在的钱,所以运维人员待遇高(都是专有技术难培养)、做的事情少(自发做事多了会出错,不如厂商技术支持),只是跳槽的难度比通用运维要大些(都是专有技术不通用) 4、彻底转型,做和计算机无关的工作;选这路的人部分是自己有大觉悟或巧机缘,但另部分人是的适应不了环境变化,希望各位不要被淘汰掉。 最后总结下,云计算是不可阻挡的历史趋势,它还给了运维五到十年的时间去修正自己的职场规划,我们可以顺势而为也可以激流勇进,但不可得随波逐流最终。 天行健,君子自强不息。
TOP