关于 三台县红灯区有大保健服务〖8843O306VX〗服务真实戮冠抵 的搜索结果,共1371
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎家积极留言。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
M****点 2018-07-10
中国云计算现状——产品篇
客户没对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至专门的中立CDN监测的平。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调按需付费的计算只是快速释放资源的小把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几器 目前都荒废了,因为卡得一匹。
s****d 2018-07-11
亿元级云用户分析
云厂商提供四类人力资源: 第一类是方案咨询和项目规划,不要被免费通用售前蒙蔽了视野,出彩的规划咨询重度依赖精英人力,既要是云产品专家又要是客户侧IT高手; 第二是平侧研发运维,即使最标准的CDN也要定制日志接口、微调卡顿和回源比,销售铁角必须最顺畅沟通最高优先级; 第是项目侧施人力,云厂商可以做盖机房到App适配的所工作,客户只想对接一个总包责任人; 第四是客户挖不来留不住“云厂商母公司的顶级技术高手”,他们想借云项目让高手做人力输出,但是……。 读者们不要觉得卖人日很低端,人力资源是难以垄断和模板化复制的;只不能垄断的行业,精英打工者才的发挥空间。 4.架构和流程变化分析 型云用户在上云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是特配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商都是互联网出身,他们拥DDOS的资源和统一前端的践经验,还海量廉价优质带宽。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
单机房故障自愈解决方案概述 百度AIOps框架中,单机房故障自愈解决方案构建在运维知识库、运维开发框架、运维策略框架个核心能力之上。具体过程为自愈程序搜集分散的运维对象状态数据,自动感知异常后进行决策,得出基于动态编排规划的止损操作,并通过标准化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自动化运维平之上,现了业在任意单个机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度多数核心产品,止损效率较人工处理提升60%以上。典型案例: 在8月28日某产品在单机房故障发生后1min55s完成止损。 在后续文章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中哪些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障信息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险? 如何应对不同业流量调度策略和平的差异?
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平的底层工具链,为PaaS平提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
追****圣 2018-07-11
给书记省长讲清楚云计算
类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平,但他们建好云平的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中小型国企,因为现困难资源限是搞不了云计算的;二线城市和型国企才能提供云计算公司感兴趣的资源。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的要素,也是如何执行一条命令行面对的个问题,如前文所述,对于单机环境来说,这个问题在前人的努力下已经被很好的解决。可是如果要在几十万机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24小时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送达的前提下障传输的可靠与高效,毕竟百度的几十万器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
流****水 2018-07-11
度云企业级运维平——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平中选中导航的模块进行升级,运维平会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极的简化了运维操作,提升了运维效率。
嘟****y 2018-07-11
型企业适用的云平账户体系
这些年来云计算技术突飞猛进,但我一直很怕和客户谈云平的账户体系,因为客户合理化需求,而(某客户说)云平的账户设置就是在糊弄鬼。随着部分云平在完善账户体系,我们可以心平气和的谈一谈而非吐槽这个问题了。 云计算公司的技术班底都是个人业起家,他们最早接入的是中小企业和创业者,其账户体系并不适用于型企业客户。型客户上云之前都用过虚拟化、域管理、网管资源管理软件,肯定不适应这套功能单薄诡异的用户约束。本文的目的是为了让客户底气提出质疑,让云平继续完善开发,最终提供符合企业级应用场景的账户体系。 第一.账户注册问题 首先我们看法问题,如果注册时死抠法问题,国内各云平会颗粒无收。 我随便摘取了几段账户注册的用户协议: 客户的云账户是唯一身份识别依据,就连交钱时也是只认账户不认人。 云平权限制客户账户下所产品及全部功能,心情不好就不卖。 客户证不会影响云平关联公司的合法权益,其标准由云平做权威判断。 这是不是一种“客户你好,我是你爷,爱买就买,不买就滚”的即视感?谁资格代表公司去注册账户和同意条款,IT部私自注册云账户跟私签合同的吗?
m****t 2018-07-11
设计中立公云云管平
每个资源都一个用户自定义,便于用户人工操作可读性的名称;在供应商自己提供的云平上,这个名称仅仅是个标识,客户可以随便修改,也不影响际云端业。如果你要做而全的云管平,可以让客户随意操作资源名称。但如果只是做简易云管平,我的建议是用资源名称做不同用户的隔离标识,且让用户不可轻易修改该名称。比如说用户user1创建的云主机名字叫“web01”,那际创建的云主机名应该是“web01.user1”,且“.user1”部分不可修改。这样通过资源后缀名就可以笨拙但效的分开不同用户的资源。 本文接下来的内容就是云管平拿到的不同供应商资源,哪些是必要资源,哪些是可选资源;这些资源至少要进行哪种程度的管理才能满足用户的基础需求,哪些功能用户嚷的响亮,但不是燃眉之急,可以放到二期期来做。 第必要云资源 云计算平最早是对物理器的模拟,所以必须的云资源就是模拟物理器的资源。但云平用SDN管理网络,云主机无法像物理机一样自由发ARP广播,所以和主机网络相关的配置也要单独管理。现在云平都把云硬盘独立于主机之外单独管理,本地虚拟盘几乎绝迹。
小****园 2018-07-10
让PB级云存储不再神秘
窃取用户数据指的是监守者自盗后自用,要是泄露给第方那是安全事故可以直接报警抓人,但平方自用用户数据很难抓现行。云存储里都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平没手段能自证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平方会根据计费日志估算你的业规模,就像小安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,自吹数据量数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和致的动作类型,一个新兴企业最好还是把业分散在两个厂商那里,毕竟他们两家不能核对你的账单。 最后一条就是些领先厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平恶意竞争,如果到了云平明抢客户自身业的阶段,技术采购决策人请把风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
但是云厂商可能买劣质资源,或者频繁迁移云主机,甚至后操作误停机误删除,以前用物理机客户自运维的各种故障点依然存在。理论上云平技术人员会很专业和敬业,但很难深入了解客户业。云用户以前的硬件冗余设计仍然效,而且可以利用多AZ/多region/多云等云上隔离方案。 资源不足 云资源的隔离不彻底且会超卖,带来了瞬时资源不足问题。比如说云主机突然变慢又恢复,导致客户的业异常崩溃,云用户缺乏效的监控手段,可能会想不到故障和云资源关,或者无论什么问题都让云平自证清白。 资源不足还会影响新建资源,很多DevOPS客户自动化申请资源,但如果账户配额不足或者域资源不足,自动申请资源失败时备选方案或者人工干预吗? 以前客户只要观测公网接入资源是否紧缺,自控硬件和内网的信息很清楚,上云以后硬件和内网也要多留心了。 软件BUG 相比客户自己粗选一个物理机的OS,云主机精选的虚拟机OS、宿主OS、Hypervisor的软件BUG并不多,中型云厂商都精选底层支撑软件的力,但客户装物理机自选的OS都可能驱动问题,个精选软件的故障率没一个粗选软件更高。
w****t 2018-07-10
AIOps中的四金刚
故障自愈机器人:针对单个业场景进行平化抽象,使之成为一个基础,基于AIOps平研发和运行。 AIOps时代的职责和技能变化 平研发工程师负责运维平及基础组件的研发与建设。 在传统运维场景中,平研发工程师负责平、基础组件、类库和工具的研发工作。在针对运维的场景中,会覆盖运维相关的管理、监控、变更、流量调度等相关平。 这部分平是运维的基础,在AIOps时代仍然需要依赖于这些平的建设。 同时在AIOps场景中,数据成为了中心,运维各种状态信息转换为数据,机器学习则作用在数据上进行分析。在百度AIOps的践中,运维开发框架、运维知识库、运维策略框架共同组成了完整的智能运维平的建设和施离不开数据、机器学习架构的引入。这就要求平研发工程师具备数据、机器学习平架构师的多重身份,具备流式计算、分布式存储、机器学习平、算法策略平等一系列数据和机器学习平架构能力。 运维研发工程师 基于多个业线场景抽象出的单机房故障自愈解决方案,能够满足部分场景需求,但并不意味着可以直接提供给各个业线来使用。
小****君 2018-07-11
踏云落地--谈IT就业趋势
第六.熊猫跑了,要撤熊猫是一种“伞护动物”,熊猫也被其他动物所分享;熊猫最重要,其他动物都是玩伴点缀,但如果熊猫都迁走了,就会撤销。后支撑团队总认为自己跟熊猫一样脾气很好,IT鄙视链是不存在的;而业开发总认为这货比熊猫还矫情,自己天天给熊猫让路、敬茶、拍马屁了。但是精英们逐渐流失了,业开发是撑不起领导IT部门的重担的,在部分公司里,IT部门会从能产生CTO的一级部门,滑落为只能产生个IT总监的二级部门。行业精英们待遇好级别高,是因为行业精英们的工作是其他管理层听不懂的,你见过老板帮忙搞模式设计,或产品对数据结构提要求吗?这种神秘感和稀缺度,让公司管理层必须跟他们分享权力。而业工程师始终在拆解现具体的业,老板和产品经理都能提需求和做评判,做好了理所应当,做烂了就要挨骂追责,整个IT团队逐渐会变成跑腿打杂的。曾经这批熊猫住在传统软件和集成商那里,后来他们来搞互联网了,留在传统软件和集成商那里的工程师挣钱少干活多,跟做互联网的待遇和地位天差地别。现在他们要从互联网IT部门撤出了,谁帮普通工程师应对从产品到业的压力哪?
TOP