关于 自贡哪里附近小姐服务〖8843O306VX〗服务真实蹲吃谛搪疾 的搜索结果,共1127
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了例,规模、部署情况、例运行状况如何? 2.我从来? 的上游有些,不同的上游流量如何分配? 3.我往去? 的下游有些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
红****2 2018-07-10
故障愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与动止损能力。同时,基于时容量与时流量调度动止损策略与管控风险,现了任意单机房故障时业均可快速愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障愈场景。 单机房故障频发影响业可用性 回顾2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
w****0 2018-07-11
单机房故障愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
M****点 2018-07-10
中国云计算现状——产品篇
客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,大不了切走就行,甚至有专门的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨大蛋糕。 关于Serverless的介绍,我建议大家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为己进行改造,其他强调按需付费的计算只是快速释放资源的把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,然也给SaaS云预留了位置。
流****水 2018-07-11
度云企业级运维平台——NoahEE
我们推出的NoahEE(Noah Enterprise Edition)脱始于Noah,为企业提供了一站式运维解决方案,覆盖了包括日常的故障管理和变更管理中典型的运维场景,致力于为政企、金融、教育等行业提供业可用性保障、提升运维效率。 图1 NoahEE概览 接下来,我们把这艘诺亚方舟分解开来,距离观察一下这艘船的方方面面。 管理 我们首先介绍管理是因为管理是整个运维工作的基础,也是NoahEE这个平台上各个系统能够进行批量动化操作的关键。管理这个概念的出现,是随着业快速膨胀的必然,其要解决的主要问题是一个“量”,或者说“规模”的问题。在早期业较为简单时,一个可能部署在几台甚至一台机器上,进行变更等运维操作简单直接,登录到机器上人工操作就好了。随着业的发展,分布式应用与的广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。 举个例子,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资源在
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高动化效率,能够集成测试发布动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
软件BUG 相比客户己粗选一个物理机的OS,云主机精选的虚拟机OS、宿主OS、Hypervisor的软件BUG并不多,大中型云厂商都有精选底层支撑软件的力,但客户装物理机选的OS都可能有驱动问题,三个精选软件的故障率没一个粗选软件更高。 但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往上走的软件质量还不如XXXX,此处省略一万五千字,客户己揣摩吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍一样,脸疼了就把屁股凑过来,屁股疼了就捏捏脸,一般不会按住一只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户己心要有秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不上墙,故障的性质对长久的品质很重要。 我列一下潜在的故障原因,些故障能忍,些故障不能忍,这些要云客户己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没有特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源平台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确客户要认倒霉,因为友商也会遇到同样问题。
s****d 2018-07-11
亿元级云用户分析
3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户施的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损上千万。云厂商提供四类人力资源: 第一类是方案咨询和项目规划,不要被免费通用售前蒙蔽了视野,出彩的规划咨询重度依赖精英人力,既要是云产品专家又要是客户侧IT高手; 第二是平台侧研发运维,即使最标准的CDN也要定制日志接口、微调卡顿和回源比,销售铁三角必须最顺畅沟通最高优先级; 第三是项目侧施人力,云厂商可以做盖机房到App适配的所有工作,客户只想对接一个总包责任人; 第四是客户挖不来留不住“云厂商母公司的顶级技术高手”,他们想借云项目让高手做人力输出,但是……。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
追****圣 2018-07-11
给书记省长讲清楚云计算
当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心有数。 第一类是大型云厂商,他们身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手抢单子。地方政企和这类企业合作时有很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术有些优势,而项目的推进落地都是要靠云厂商来执行的。 第三类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也有兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们有什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。
小****园 2018-07-10
让PB级云存储不再神秘
云计算是企业,云平台是我们的供应商不是我们的管理者。TB级用户正是业高速发展的关键时刻,我们更要防备某些相难看的混蛋。 云存储相对业简单,遇到野蛮运营的问题主要集中在窃取数据、估算业量、恶意不兼容其他这三方面。 窃取用户数据指的是监守者盗后用,要是泄露给第三方那是安全事故可以直接报警抓人,但平台方用用户数据很难抓现行。云存储大都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端大数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平台确没手段能证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像区保安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,吹数据量有数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和大致的动作类型,一个新兴企业最好还是把业分散在两个厂商那,毕竟他们两家不能核对你的账单。
w****t 2018-07-10
AIOps中的四大金刚
在AIOps落地施中,运维工程师是处于中心的角色,也赋予了新的职责,他们是AIOps具体施的需求提出者和成果验收者。具体职责包括: 在AIOps时代,运维工程师一方面需要熟悉运维领域的知识,了解运维的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解些场景问题适合用机器学习方法解决,需要提供怎样的样本和数据,即成为AI在运维领域落地施的解决方案专家。 运维AI工程师 在单机房故障愈场景中,运维AI工程师将机器学习的算法与际的故障处理业场景相结合,针对单机房故障场景的风险点,进行策略研发与验工作。如下图所示: 运维AI工程师分别设计了如下算法策略来满足整个复杂故障场景的动决策: 异常检测算法:解决故障发现时指标异常判断问题,基于AI方法现较高的准确率和召回率,作为整个故障愈的数据基础。 策略编排算法:基于当前线上的际流量和状态,设计损益计算模型,判断基于何种方式的操作组合或步骤,能够使整个动止损带来收益最大,风险最。 流量调度算法:基于线上容量与时流量情况,进行精确流量比例计算,防御容量不足或不准风险,并现流量调度收益最大化。
m****t 2018-07-11
设计中立公有云云管平台
依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络由漂移,大部分云厂商又不太支持共享硬盘、心跳线等功能。云管平台可以集成这些资源应对中型客户需求,也可以直接建议客户单机部署;重型用户需求产生了就不轻易变动,可以通过云管平台主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户端旁观选举的协商群集。最十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。云管平台可选接入厂商满足中型客户需求,毕竟不用己做维护;但遇到重型客户需求建议直接在高配虚拟机上己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的
p****d 2018-07-11
单机房故障愈--运维的春天
安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。 如果安全水位线提供的容量不足以满足止损,那我们期望使用上两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,现故障的恢复。 2业线止损策略需求差异大 【问题描述】 我们现了基础的单机房故障流量调度止损算法,但在部分业线中仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程中能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个上游,多个上游的重要程度不同,优先保证重要上游稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着动化运维的发展,很多运维动作都从人工执行变为了动执行,动执行的决策过程更是需要采集大量的时信息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
TOP