关于 巴中红灯区有大保健服务〖8843O306VX〗服务真实凑箍吃衅康 的搜索结果,共1458
h****e 2018-07-10
程序:我从哪里来?
Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存,以此降低Cache层的查询压力。 Check Agent:提供BNS例的检查功能,用户通过在Web页面对每一个例配置检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品的BNS系统,目前系统还在持续迭代和优化,若您想进一步了解BNS问题,欢迎家积极留言。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个例或者多个例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
M****点 2018-07-10
国云计算现状——产品篇
客户没对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至专门的立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调按需付费的计算只是快速释放资源的小把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在型互联网公司,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会自定义SLA标准——部分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维,还更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子,地图研发的同学就可以在运维平台导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE的所运维系统,都以管理为基础来进行运维操作,例如在监控系统,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极的简化了运维操作,提升了运维效率。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的国市场吸引过来的,也兼顾外企国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据心都会占用量电力。 对于四线城市政府和小型国企,因为现困难资源限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂靠友商更烂胜出的,和IDC/CDN的比优赛无法相提并论。客户在够了厂商的亏以后,会选择信任能个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 个客户非常信任某个小云销售,他告诉该销售,虽然某高层合作,某云也说报价肯定比某小云低5%;但是某云的机制问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该小云快速把业切过来并坐站住了,这份暗相助就是靠个人商誉带来的信任。 我和客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是商誉的销售-售前-售后团队,这类人才永远是稀缺资源。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个小的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能多种方式,如sftp的集式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集量的时信息(前期文章《百度规模时序数据存储》介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
小****园 2018-07-10
让PB级云存储不再神秘
3、型用户谨慎选型 型用户即使只存储1PB,每年也要花100多万了;小型客户只要做选型,而项目不仅要选型和定制,还更多技术以外的东西要考量。 首先同样说价格问题,型客户比小客户更难办,小客户是嫌价格贵,客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一小群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
东方的梦没法子不醒了。----老舍《断魂枪》 云计算潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板都是BIOS引导,也是UEFI引导,但从器用户看别也不。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
w****t 2018-07-10
AIOps的四金刚
在传统的自动化运维体系,重复性运维工作的人力成本和效率问题得到了效解决。但在复杂场景下的故障处理、变更管理、容量管理、资源过程,仍需要人来掌控决策的过程,这阻碍了运维效率的进一步提升。而AI方法的引入,使得机器能够代替人来做出决策,从而让正意义上的现完全自动化成为了可能。 在AIOps的落地施过程,最关键的因素还是人,即AIOps的建设者们。 AIOps作为一个全新的技术发展和应用方向,并不是简单地说具备某一种技能或招募一两个牛就可以完成的,它需要不同角色、多个团队的配合才可以达成。根据近几年来整个业界对AIOps的理解和践,AIOps参与角色的划分也越来越清晰。在百度4年的AIOps,我们总结得出了如下四种不可或缺的角色: 运维工程师 运维研发工程师 平台研发工程师 运维AI工程师 可以看到,除了运维AI工程师外,其他角色并不是AIOps产生之后才出现的,他们在传统运维也发挥了重要作用。我们今天主要想和家探讨一下,在AIOps时代,他们的职责究竟发生了哪些变化。为了方便家理解,我们会基于百度AIOps的践案例,来进行具体说明。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
使集群机器环境同质化? 管窥豹,我们可以发现如果在私云或者混合云场景还是通过人肉运维的方式管理,那么管理效率将会十分低下,并且其重复繁杂的操作,难以证云环境的稳定性和安全性。急人之所急,需人之所需。百度云的工程师们便展开了一场头脑风暴...... 原始太初 私存在规模的机器集群,集群一片空虚混沌,渊面黑暗,仅字节流在其间穿梭。为效地管控体量庞的集群,合理分配资源,降低运维成本,障云上穿越狂风暴雨,工程师们意识到:“必须要一个优秀系统来管控这混沌的集群世界!” 第一天 工程师们说:”这个系统要代表操作系统的意志!占用资源少!对外部系统零依赖!装机自带!要能自升级和自活!“。当裸机启动之后,这个系统便以root身份运行,能活自己,还能托管维护其余基础设施,后续迭代升级也能自动完成,整个流程高度自动化,不需要人工介入,极地降低运维成本。 第二天 工程师们说:“这个系统必须运行稳定,性能卓越,支持跨平台(Linux、Windows、ARM)安装,要做到同时管理上万台器,一点儿都不慌”。
小****君 2018-07-11
踏云落地--谈IT就业趋势
云厂商集采优势,云厂商多给点资源就能省下很多优化工作;部分情况云厂商还数据优势,比如基于本站数据做风控需要反复调试,而对接云厂商外部参考画像会简单很多。5.技术牛都是让变态业需求给压出来的,如果公司技术牛,那各种需求就来了,但如果没技术牛,公司也会压缩自己的IT难度。比如搞促秒杀就要准备2000万云费,业部门就会掂量成本。客户要使用PaaS云就要按照云厂商的是数据和业的格式约定。我们看到越来越多的证据,了对象存储就不用招存储工程师,了鉴黄和人脸识别就不用自己推演模型,是反作弊系统就不用自己研究刷单,了IM就不用自己做openfire。正的行业精英是不会护食眼前这碗饭,找到问题最优解比住铁饭碗重要的多。当精英们无事可做的时候,哪怕钱给够了也很容易跳槽,他们将会富集在云计算公司、IT部门和独角兽企业,而小IT部门和创业团队留不住技术牛了。精英们遗世独立,让普通工程师去买云了,对其他工程师可不是好事。
TOP