关于 达州红灯区有大保健服务〖8843O306VX〗服务真实胰康槐匚文 的搜索结果,共1346
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS例的检查功能,用户通过在Web页面对每一个例配置检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎家积极留言。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一中,我们介绍了单机房故障自愈的必要性和解决思路。本主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个例或者多个例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
M****点 2018-07-10
中国云计算现状——产品篇
先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一小时一千元的咨询付费。现在高净值客户放出来的云计算咨询标了却没人投标,因为小型云计算企业因为资质、高层合作、客户关系等原因没投标的机会。 我们经常遇到咨询标,但我们也不想投这个标。咨询标的交付物就是各种档和报表,互联网公司的技术积淀都在技术部,技术人员最烦的就是写档,而且技术人员匮乏的想象力和沟通能力并不适合做咨询标,让售前承担技术档书写也扛不住。传统IT外企做云IT咨询流程上没问题,但技术水平太差,也不被政策扶持。此外还个哈哈哈哈的杀器让我们不能投咨询标,投了咨询标就不能投施标了,施标的金额要比咨询标很多。 到了施阶段,其矛盾和咨询标差不多,既要干活又要写档,而且验收者并不专业,施工作传统厂商会抢着压价,还会各种意外拖进度抢进度,各互联网企业的施团队根本支撑不下来。传统厂商虽然压价抢标,但他们要是施云计算项目的人才,互联网公司加价三倍挖走谢谢。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置件的目录结构,Archer规定了一套既灵活又完整的包规范。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
该解决方案策略和架构解耦,并且托管到高可用的自动化运维平台之上,现了业在任意单个机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度多数核心产品,止损效率较人工处理提升60%以上。典型案例: 在8月28日某产品在单机房故障发生后1min55s完成止损。 在后续章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中哪些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障信息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险? 如何应对不同业流量调度策略和平台的差异?
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会自定义SLA标准——部分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
小****园 2018-07-10
让PB级云存储不再神秘
3、型用户谨慎选型 型用户即使只存储1PB,每年也要花100多万了;中小型客户只要做选型,而项目不仅要选型和定制,还更多技术以外的东西要考量。 首先同样说价格问题,型客户比中小客户更难办,小客户是嫌价格贵,客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一小群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量到PB级别,并简要说明件数量和主要读写场景。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件成时报警。管理通过对资源合理的组织,极的简化了运维操作,提升了运维效率。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24小时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了证命令高效正确送目标器,需要构建一个可靠的命令传输网络,使命令信息在准确送的前提下障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中小型国企,因为现困难资源限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
东方的梦没法子不醒了。----老舍《断魂枪》 云计算潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板都是BIOS引导,也是UEFI引导,但从器用户看别也不。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家故障,用一家就知道一家的短处才是正常,只前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计现思路完全不同,不在本讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍微上规模,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会网络IO超卖复用,而且用器CPU软解海量报,其性能还是比传统网络略差的。
m****t 2018-07-11
设计中立公云云管平台
以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。云管平台可选接入厂商满足中小型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其挺尴尬的,理论上来说即使是内存缓存型双活机制,但是厂商PaaS的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年一遇,都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看过很低可靠性的,也听朋友说过本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露一个接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库会不会在同一个物理机。所以前中我对中小客户用PaaS当做节省自己搭建的人力,对型重型PaaS需求建议个案处理,因为各厂商通用的百倍赔偿根本就是个免责条款。 对象存储(OSS)和CDN。
若****客 2018-07-10
IT架构的本质--我的五点感悟
网络不稳定,内网通用的技术方案很成熟,少提复杂需求内网就能很稳定,我们最烦的是单条网线处于半死不活状态;IDC的外网SLA默认就是3个9,所以我说支撑性能到99.95%就已经很可靠了。 硬件不稳定,部分架构师根本不懂硬件,只要不出硬件批次故障,架构师就可以将单点硬件和系统、绑在一起做可靠性设计。 人力误操作,我们招不到不出故障的人,我自己不到不出错的标准。只要员工没恶意破坏,出了范围故障就是群集壮性设计不到位,别让操作工给技术总监和架构师顶包。 监控和备份是运维的职责,但架构师需要帮忙确认目的正确性,别备份了半天废数据,监控只看telnet80。 结束语 架构之术繁琐,架构之道浅显 本讲的是架构工作的“道”,对与架构之“术”并不提及。不同的业系统的架构之术完全不同,能拿来汇总借鉴的只这几条简单的道理。如果一个架构师只是炫耀具体优化架构的手法,却闭口不谈选型的道理,他们其是在简单用公司业尝试赌博。 如果我们架构之道做思想支撑,即使接手全新业类型,庖丁可以解牛也可以杀猪,我们一样能游刃余心里不慌。
TOP