关于 柳州中南找妹子服务同城〖10669708薇信〗 的搜索结果,共893
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭接入故障,断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户任度下降、给竞品占领市场机会等。
追****圣 2018-07-11
给书记省长讲清楚云计算
综上所述,云计算就是将分散在各个公司的息技术资源汇聚到一个大平台,其兴起始于需求扩大而人力短缺,其未来发展趋势是通过规模经营和数据共享,成为新型息化社会的技术基石。 云计算如何带动地方经济 云计算落地是要自建数据心机房,我们一般称之为云基地,云基地在经济利益和社会影响上和传统工厂并不相。云基地通俗易懂的展现形式就是开启数十万个高速运转的电脑铁皮箱,但这些电脑不用接显示器也不用人员现场操作,只要这些电脑能开机能上网就能对外。云基地和数字地产不完全相,数字地产只装修好房,云基地关注用这些房做什么。 云基地是无烟工业,并不需要雇佣大量人口,对直接促进就业帮助不大;但云计算没有实体矿产投入和物品产出,只需要大量电力启动电脑也不会产生大量污染。 云基地像电视台和号塔一样,通过产生和扩散数据息对客户提供,这些息的传输没有物流成本,光速直达全球每个角落。 因为云基地全球客户,所以云基地可创造极高的营收,但不能简单的计入地方政府的GDP。一个耗电三千瓦的机柜加附属空间占地5平方米,如果云计算资源全部售出,每年可产生20万元以上的营收。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例,地图研发的学就可以在运维平台导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统一的包结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可按照单实例、单机房、单地域等级别设置暂停点,并支持部署过程进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不地域配置不的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在一份配置文件设置配置变量,并在特定地域(机房)生成特定配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据转传输。采用转的上线在发起任后,部分代码将首先被转存至转机上。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房故障止损覆盖从感知到止损阶段,其感知阶段依赖监控系统的故障发现能力,止损阶段依赖流量调度系统的调度能力。我们来具体看下百度的监控系统与流量调度系统是如何在单机房故障止损场景起作用。 故障发现:百度监控平台 百度监控平台,针对单机房止损过程的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。时针对单机房止损依赖的容量管理场景,提供资源类监控采集,为容量规划、扩缩容提供数据支持。实现从运营商外网链路、百度内部网络设备/链路、/实例、机器/容器的全方位数据采集与监控。满足网络类单机房故障、业类单机房故障的监控覆盖需求。 时提供一系列数据分析方法。如智能异常检测、趋势预测、多维度分析、关联分析、和链路拓扑分析,实现故障的精准发现和定位。 故障止损:百度流量调度平台 针对百度的网络架构和业架构,我们将流量调度拆分为三层:接入层、层、依赖层。 接入层:从外网用户发起请求经过运营商网络到百度统一前端(BFE)的过程,使用DNS实现外网流量调度。 层:从BFE流量转发至内网的过程,使用BFE提供的GSLB动态负载均衡进行流量调度。
布****五 2018-07-10
如何执行一条命令
所谓远行无轻担,量大易也难,在构建这样的执行系统的过程要面临诸多困难,此处举几个突出的例如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。 图2简单问题放大后也变得困难 百度目前拥有分布在世界各地的几十万台器,并且随着业的不断扩张,这个数字还在持续增长,构建一个高效稳定通用可扩展的命令描述、传递、执行系统在这样的环境有着重要的现实意义。对百度各产品线的用户来说,这样的一个系统,最基础的要求是:执行高效,控制灵活,扩展方便。
M****H 2018-07-11
故障定位场景下的数据可视化实践
干货概览 百度拥有上百条产品线,数十万的,每个时时刻刻都在产生着海量的监控数据,形成的监控项规模总数已达数十亿。面对如此海量的数据,在日常运维(如故障诊断、成本分析、性能优化等场景)过程,传统的统计图表难以有效直观地展示如此庞大的数据。因此,优秀的监控数据可视化产品就呼之欲出,他既要数据准确、全面、时效性高,也需要提升用户的使用体验,使其能在茫茫数据一眼就能发现想要观察的数据。 那么怎么做才能适应用户需求、完成精准展示,时又能挖掘数据价值呢?下面我们从故障诊断的场景出发,来看百度智能监控平台是如何充分利用数据可视化武器来解决实际业问题的。 故障定位可视化思路 在标准的故障处理流程,故障定位一般可分为两个阶段: 故障止损前:期望可以快速获得可用于止损决策的息,做出相应的止损操作使得恢复。比如通过确定故障范围,调度流量绕过故障机房或摘除故障实例等。 故障止损后:仍需要进一步到导致故障的深层次原因,确定故障根因,将线上环境恢复到正常状态。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常任某个小云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该小云快速把业切过来并坐实站住了,这份暗相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
那是在更早的版本GRUB程序读不了GB级磁盘分区,没办法加载vmlinuz内核,现在已经只是一个迷而已。 5.内核启动加载驱动,但这还没触及任何业。 不硬件一个版本的vmlinuz内核hash值是相的,因为驱动息放在initrd*.img里。Initrd*.img是一个精简但带了所有驱动的linux镜像,一般系统安装完之后自动生成,也可以事后手动生成。 曾经某偏门软件推荐用集成镜像安装,装完了就是起不来,我把内核版本、硬件配置的init*.img替换以后系统就正常启动。 Kernel加载了所有驱动后就会卸载initrd*.img,早期linux版本在系统启动过程还能看到很多“umount filesystem”的提示,那不是卸载正式文件系统,而是卸载了initrd*.img这个迷你系统, 6.Init进程启动,正式启动。 从看到“Welcome use CentOS”的彩色欢迎文字开始,init已经启动了。 在这之前的启动过程也就读取BIOS/MBR/GRUB和/boot分区,现在终于开始读/etc目录的配置文件了。
s****d 2018-07-11
亿元级云用户分析
降低成本:客户最直观的诉求,或者削减IT预算,或者等预算下支撑更多的;其他客户诉求都难以清晰描述,唯独成本可以看发票和合。 明确责任:客户不想承担各个IT系统的衔接和选型责任,相比软件厂商和系统集成商,云厂商的责任覆盖范围会更广泛一些。 收拢数据:上云本身并不碰业数据,但上云是很好明确业数据存储位置的机会,上云业改造是规范数据结构的理由。 求新图变:企业客户在气势如虹时要居安思危,在困境危难之穷极思变,IT技术是企业的潜在增长点甚至退路。 本文讨论的是有模糊度和利润空间的云计算项目,CDN和IDC资源可以用做计收载体,但不能做为上云目的分析。亿元以上的器、CDN的订单很多但既无技巧也无利润,这些资源厂商也在跟云厂商学习如何包装项目。 2.客户角色利益分析 大企业多角色之间的利益诉求不,所以表现形式也不。我将客户三大角色列出来讨论,销售-售前-项目经理铁三角组合明确客户的诉求,才更好游刃有余的客户。 2.1业采购决策人 企业里CEO/COO/CFO或实权VP,他们不关注云产品云技术,更关注业上的求新图变,互联网决策人还会敏感IT成本。
p****d 2018-07-11
单机房故障自愈--运维的春天
2业线止损策略需求差异大 【问题描述】 我们实现了基础的单机房故障流量调度止损算法,但在部分业线仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到地域机房;业于多个上游,多个上游的重要程度不,优先保证重要上游稳定。 容量负载计算需求:请求成分不,不成分请求带来的容量负载不。 这部分需求一部分与业强相关,不具备通用性,另一部分则存在不产品线需求冲突的情况。 【解决方案】 针对以上问题,我们推出了故障止损流量调度策略开放框架。支持用户根据业需求自定义策略实现。时将较为通用的策略开放为插件,使业线可以根据需求自由插拔策略。 基于以上两点,结合智能运维开发框架(详见AIOps时代,你准备好了吗?),单机房故障自愈框架无缝支持不线,使得研发者可以更关注策略本身,而无需关注不线运维模型、底层平台适配成本。
TOP