关于 百色找个小姐过夜服务一条龙〖8843O306VX〗服务真实呕账 的搜索结果,共1867
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几问题。 问题 1.我是谁? 叫什么,包含了哪些例,规模、部署情况、例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在度的运维践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,度名字)是度云智能运维团队研发的套分布式的名字系统,是度云Noah智能运维产品中的重要基础系统。它为每赋予无二的名字,根据这名字,我们就可以获取到这的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),例运行状况等其他重要信息。简单来讲,它提供了名到资源信息的映射关系。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房故障止损流程 完整的故障处理生命周期包括感知、止损、定位、分析四阶段。 单机房故障止损覆盖从感知到止损阶段,其中感知阶段依赖监控系统的故障发现能力,止损阶段依赖流量调度系统的调度能力。我们来具体看下度的监控系统与流量调度系统是如何在单机房故障止损场景中起作用。 故障发现:度监控平台 度监控平台,针对单机房止损程中的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。同时针对单机房止损依赖的容量管理场景,提供资源类监控采集,为容量规划、扩缩容提供数据支持。现从运营商外网链路、度内部网络设备/链路、/例、机器/容器的全方位数据采集与监控。满足网络类单机房故障、业类单机房故障的监控覆盖需求。 同时提供系列数据分析方法。如智能异常检测、趋势预测、多维度分析、关联分析、和链路拓扑分析,现故障的精准发现和定位。 故障止损:度流量调度平台 针对度的网络架构和业架构,我们将流量调度拆分为三层:接入层、层、依赖层。 接入层:从外网用户发起请求经运营商网络到度统前端(BFE)的程,使用DNS现外网流量调度。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
干货概览 在大型互联网公司中,单机房故障因为其故障时间长、影响范围大,直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于度统前端(BFE)与度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。
嘟****y 2018-07-11
大型企业适用的云平台户体系
户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。但套用去管理虚拟机的经验,管理IaaS和PaaS时要有资源池隔离,不同部门和项目的主机资源要分别计费和管理。 很常见的场景是,人事部的OA系统申请了15万云主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没有资源池的概念,就是户管所有资源的“大通铺”模式,客户要把脚趾头都掰完了才能算清各项目的消费金额;万云平台调整了资源价格,较的客户又要从头重算次。 这“大通铺”最尴尬的不是计费繁琐,而是户下所有资源毫无权限隔离,客户或者只有人去登录云平台,或者将不同业注册完全孤立的户。互联网公司无法理解传统企业和自然人有关的流程是多沉重,客户选云平台管理员完成所有操作,客户的项目越多管理员员就越晕越累。
疏****月 2018-07-09
键上线Archer | 度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统,部署策略不致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍度持续部署是如何现的。 架构 整系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通命令行工具触发次变更,在web端进行参数解析及任分发,对应执行机器agent通心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统,部署策略不致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了套既灵活又完整的包规范。
流****水 2018-07-11
度云企业级运维平台——NoahEE
文章概览 去的文章为大家介绍了度云智能运维的方方面面,从监控、部署等传统的运维技术到智能异常检测、故障自愈等智能运维技术,这些运维基础能力和黑科技,是十年来度工程师对技术孜孜不倦求索的结果,也见证了度运维十年间的创新历程。很多同学在看了这些文章后,都在想如何把这些领先的运维技术与理念用到自己的工作中,但苦于建设运维平台不是蹴而就的,成本也让人望而却步,于是不少同学都在希望我们能够有产品的形式输出这些技术,方便将这些前沿技术运用到自己的工作环境中。 在分析了各行业的运维场景与需求,结合度历年来运维的经验与技术沉淀,并经运维团队的精心打磨后,今天我们可以很骄傲的给大家呈现这度的运维产品企业版 – NoahEE。 在介绍NoahEE之前,有必要说度内部的统自动化运维平台Noah。Noah来源于圣经中“诺亚方舟”的故事,我们用这名字来寓意能够避免灾难,稳固而坚的平台。作为系列运维系统的集合,Noah包括了管理、机器管理、资源定位、监控报警、自动部署、任调度等等,已经度数年之久。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
这次验好玩的地方在于: 我定35分的任计划,结果ntpd将时间跃变越了第35分直接到了37分,但该任计划仍然执行了。而从执行输出结果是37分来看,这不是步快跑的踩35分,而是第35分被越了不存在。 这验里坑很多,人要和时间赛跑才能完成验,我做了8次验成功了3次,每次都等了10分钟以上。这验也不够严谨,我只是拿crond做验,我在梦里记得其他有历史守规矩的程序也能和ntpd联动,但我没时间做验了,也希望有朋友能帮我答疑解惑。 附录2:网上能写NTPD和ntpdate的水文和本文内容有些类似,那是我多年以前写的,不是借鉴和抄袭,严肃脸。
布****五 2018-07-10
如何执行命令
部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维程中重要的环,频繁的交互意味着频繁的部署。部署程可以拆解为两的步骤,是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策程更是需要采集大量的时信息(前期文章《度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,种是通软件提供的接口直接读取状态数据,另种是通日志/进程状态/系统状态等(如使用grep提取日志,通ps查询进程状态,通df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这基础能力,这也是今天我们的主题“如何执行命令”的意义所在。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动
首先被读取到的是/etc/fstab,各磁盘都挂载就位。这文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几时。 看看各的启动优先级也是讲究多多的程,iptables会比network先启动这类依存关系很好理解;但我也遇到云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动程,正式版的启动程可以写十万字,有兴趣的朋友可以自己查维基科,或拿我说的关键字去度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招研究这事的工程师,上云确也很有意义啊。 静人稀,沙子关好了门,气把六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户自助施的,人力营收占比很低但画点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损上千万。
M****点 2018-07-10
中国云计算现状——产品篇
当客户的非CDN云资源采购金额500万以后,其子项目之间没有内网互通的需求,这时候该做跨厂商的云端资源管理方案了。现在虚拟机不能像CDN样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚。但具体参与程中,这类工作很少有成功案例,我做成功这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为型云计算企业因为资质、高层合作、客户关系等原因没有投标的机会。 我们经常遇到咨询标,但我们也不想投这标。
小****园 2018-07-10
让PB级云存储不再神秘
3、大型用户谨慎选型 大型用户即使只存储1PB,每年也要花100多万了;中型客户只要做选型,而大项目不仅要选型和定制,还有更多技术以外的东西要考量。 首先同样说价格问题,大型客户比中客户更难办,客户是嫌价格贵,大客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这依据很难考证性。厂商做PB级项目但其群TB项目做的计费融合,厂商确P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会有总容量,发票存根也只是简单的信息费。客户的成功案例必须是单命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。
M****H 2018-07-11
故障定位场景下的数据可视化
干货概览 度拥有上产品线,数十万的,每时时刻刻都在产生着海量的监控数据,形成的监控项规模总数已达数十亿。面对如此海量的数据,在日常运维(如故障诊断、成本分析、性能优化等场景)程中,传统的统计图表难以有效直观地展示如此庞大的数据。因此,优秀的监控数据可视化产品就呼之欲出,他既要数据准确、全面、时效性高,也需要提升用户的使用体验,使其能在茫茫数据中眼就能发现想要观察的数据。 那么怎么做才能适应用户需求、完成精准展示,同时又能挖掘数据价值呢?下面我们从故障诊断的场景出发,来看度智能监控平台是如何充分利用数据可视化武器来解决际业问题的。 故障定位可视化思路 在标准的故障处理流程中,故障定位般可分为两阶段: 故障止损前:期望可以快速获得可用于止损决策的信息,做出相应的止损操作使得恢复。比如通确定故障范围,调度流量绕故障机房或摘除故障例等。 故障止损后:仍需要进到导致故障的深层次原因,确定故障根因,将线上环境恢复到正常状态。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。商誉分为企业商誉和人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择信任能有人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有客户非常信任某云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这单子在客户执行层的暗助之下,该云快速把业来并坐站住了,这份暗中相助就是靠人商誉带来的信任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前言:架构师是无趣的工作 老僧三十年前未参禅时,见山是山,见水是水。 及至后来,亲见知识,有入出,见山不是山,见水不是水。 而今得休歇处,依前见山只是山,见水只是水。 参禅的三重境界在IT技术圈同样适用,初学者感叹每产品都如此精妙绝伦,追逐着最强的IDE;老司机喜欢自比管乐指点江山,嘲讽着最好的语言;当切回归平淡,搞IT就是份思想延伸和语言翻译工作;其中技术架构师就是份古朴甚至无趣的工作。 我将架构师的工作总结出五核心道理,这五经验简单直白又深奥通透,算是对我十二年IT工作的总结。 1. 需求优化最重要 少查少写少依赖,Less is more IT系统是多角多模块分层分级的,像OSI模型上层应用简单依赖下层支撑,SOA设计中同级角也只看对方的接口。 各角分工明确方便快速现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端逻辑需求会导致后端大规模联动,不同也没权限理解对方的内存数据,各的工程师都只看自己的工作范围,这是正常又无奈的现状。
m****t 2018-07-11
设计中立公有云云管平台
云管平台可选接入厂商满足中型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其挺尴尬的,理论上来说即使是内存缓存型也有双活机制,但是厂商PaaS的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是遇,大都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看很低可靠性的,也听朋友说本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库会不会在同物理机。所以前文中我对中客户用PaaS当做节省自己搭建的人力,对大型重型PaaS需求建议案处理,因为各厂商通用的倍赔偿根本就是免责款。 对象存储(OSS)和CDN。我直不理解Nova和Swift如何从业上联动,做虚拟机时跟客户解释买虚拟机不关心OSS,做对象存储时解释OSS和其他云平台没什么好混合的。
w****t 2018-07-10
AIOps中的四大金刚
干货概览 AIOps(Artificial Intelligence for IT Operations ),即智能运维,是将人工智能的能力与运维相结合,通机器学习的方法来提升运维效率。 在传统的自动化运维体系中,重复性运维工作的人力成本和效率问题得到了有效解决。但在复杂场景下的故障处理、变更管理、容量管理、资源程中,仍需要人来掌控决策的程,这阻碍了运维效率的进步提升。而AI方法的引入,使得机器能够代替人来做出决策,从而让正意义上的现完全自动化成为了可能。 在AIOps的落地程中,最关键的因素还是人,即AIOps的建设者们。 AIOps作为全新的技术发展和应用方向,并不是简单地说具备某种技能或招募大牛就可以完成的,它需要不同角、多团队的配合才可以达成。根据近几年来整业界对AIOps的理解和践,AIOps参与角的划分也越来越清晰。
TOP