关于 自贡红灯区有大保健服务〖8843O306VX〗服务真实匚吃呕账衅 的搜索结果,共1447
h****e 2018-07-10
程序:我从哪里来?
Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎家积极留言。
w****0 2018-07-11
单机房故障愈-黎明之战
干货概览 在故障愈机器人,你安心好睡眠一文中,我们介绍了单机房故障愈的必要性和解决思路。本文主要介绍单机房故障愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个例或者多个例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
嘟****y 2018-07-11
型企业适用的云平台户体系
这些年来云计算技术突飞猛进,但我一直很怕和客户谈云平台的户体系,因为客户合理化需求,而(某客户说)云平台的户设置就是在糊弄鬼。随着部分云平台在完善户体系,我们可以心平气和的谈一谈而非吐槽这个问题了。 云计算公司的技术班底都是个人业起家,他们最早接入的是中小企业和创业者,其户体系并不适用于型企业客户。型客户上云之前都用过虚拟化、域管理、网管资源管理软件,肯定不适应这套功能单薄诡异的用户约束。本文的目的是为了让客户底气提出质疑,让云平台继续完善开发,最终提供符合企业级应用场景的户体系。 第一.户注册问题 首先我们看法问题,如果注册时死抠法问题,国内各云平台会颗粒无收。 我随便摘取了几段户注册的用户协议: 客户的云户是唯一身份识别依据,就连交钱时也是只认户不认人。 云平台权限制客户户下所产品及全部功能,心情不好就不卖。 客户证不会影响云平台关联公司的合法权益,其标准由云平台做权威判断。 这是不是一种“客户你好,我是你爷,爱买就买,不买就滚”的即视感?谁资格代表公司去注册户和同意条款,IT部私注册云户跟私签合同的吗?
红****2 2018-07-10
故障愈机器人,你安心好睡眠
干货概览 在型互联网公司中,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与动止损能力。同时,基于时容量与时流量调度动止损策略与管控风险,现了任意单机房故障时业均可快速愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
M****点 2018-07-10
中国云计算现状——产品篇
客户没对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至专门的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为己进行改造,其他强调按需付费的计算只是快速释放资源的小把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,然也给SaaS云预留了位置。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高动化效率,能够集成测试发布动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会定义SLA标准——部分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没会装LAMP可以拿去吹牛,时间长了NTPD就背上黑锅了。 TOP10的互联网公司和上亿国家级项目里用ntpdate+crond,上一代架构师为什么这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见微知著和防微杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所的精力都用到做业逻辑,你只是个编程语言翻译机而已;己主动观测技术环境依赖,资格能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份信和尊。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物所值,但巧妇难为无米之炊,原始资源投入不够云就不可能很稳定。面向中小客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对客户时会很坦诚。 作为持久共生的甲方,请关注乙方的成本线,买家永远没卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,小云厂商一般是老板带头节俭,而云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂,但细心的甲方是能看出来端倪的。时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;时候明明是人为原因,但人为故障都是打脸锤,厂商脸会肿而且要赔偿,可能会找个其他原因来给脸部降降温。 对于落是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的际损失更小,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
流****水 2018-07-11
度云企业级运维平台——NoahEE
文章概览 过去的文章为家介绍了百度云智能运维的方方面面,从监控、部署等传统的运维技术到智能异常检测、故障愈等智能运维技术,这些运维基础能力和黑科技,是十年来百度工程师对技术孜孜不倦求索的结果,也见证了百度运维十年间的创新历程。很多同学在看了这些文章后,都在想如何把这些领先的运维技术与理念用到己的工作中,但苦于建设运维平台不是一蹴而就的,成本也让人望而却步,于是不少同学都在希望我们能够一个产品的形式输出这些技术,方便将这些前沿技术运用到己的工作环境中。 在分析了各行业的运维场景与需求,结合百度历年来运维的经验与技术沉淀,并经过运维团队的精心打磨后,今天我们可以很骄傲的给家呈现这个百度的运维产品企业版 – NoahEE。 在介绍NoahEE之前,必要说一下百度内部的统一动化运维平台Noah。Noah来源于圣经中“诺亚方舟”的故事,我们用这个名字来寓意能够避免灾难,稳固而坚的平台。作为一系列运维系统的集合,Noah包括了管理、机器管理、资源定位、监控报警、动部署、任调度等等,已经了百度数年之久。
小****园 2018-07-10
让PB级云存储不再神秘
窃取用户数据指的是监守者盗后用,要是泄露给第三方那是安全事故可以直接报警抓人,但平台方用用户数据很难抓现行。云存储里都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平台确没手段能证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像小安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,吹数据量数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和致的动作类型,一个新兴企业最好还是把业分散在两个厂商那里,毕竟他们两家不能核对你的单。 最后一条就是些领先厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户身业的阶段,技术采购决策人请把风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用量电力。 对于四线城市政府和中小型国企,因为现困难资源限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的资源。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个小的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着动化运维的发展,很多运维动作都从人工执行变为了动执行,动执行的决策过程更是需要采集量的时信息(前期文章《百度规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
p****d 2018-07-11
单机房故障愈--运维的春天
水位上限:该水位线表明的最承载能力,一旦流量超过故障水位线,很概率会导致容量过载。 如果安全水位线提供的容量不足以满足止损,那我们期望使用上两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,现故障的恢复。 2业线止损策略需求差异 【问题描述】 我们现了基础的单机房故障流量调度止损算法,但在部分业线中仍存在较的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程中能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个上游,多个上游的重要程度不同,优先证重要上游稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
东方的梦没法子不醒了。----老舍《断魂枪》 云计算潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板都是BIOS引导,也是UEFI引导,但从器用户看别也不。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
m****t 2018-07-11
设计中立公云云管平台
而另一些上云更多是技术上强调己接入了VPC,或者强调己开箱即用、无限扩容。云管平台集成这些资源是为了节省用户人力和统一出单,在人力和工期紧张时,下列我们一个也不做,让用户己在虚拟机上搭建;在人力和时间富裕状态,我们要认评估如何接入。 依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络里由漂移,部分云厂商又不太支持共享硬盘、心跳线等功能。云管平台可以集成这些资源应对中小型客户需求,也可以直接建议客户单机部署;重型用户需求产生了就不轻易变动,可以通过云管平台主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户端旁观选举的协商群集。最近十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。
TOP