关于 资中县哪里有小姐服务大保健〖8843O306VX〗服务真实亚把 的搜索结果,共1556
h****e 2018-07-10
程序:我从来?
Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存,以此降低Cache层的查询压力。 Check Agent:提供BNS例的康检查功能,用户通过在Web页面对每一个例配置康检查的方式,机器上的Check Agent会主动探测所例的运行状况,并将康检查的结果上报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互常见的的源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从来?该往去?”的问题。 今天我们一起聊了百度云Noah智能运维产品的BNS系统,目前系统还在持续迭代和优化,若您想进一步了解BNS问题,欢迎家积极留言。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始源是相对稀缺死板的广域网带宽,其交付的源是持续不断的,所以源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,廉价海量源;再考验销售内部协调能力,能不能源好价格抢到手;而盯客户的套路和百万级销售类似,工作力度加三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储源是订单曲线突破的好选项,还是AI和数据项目的基石,我们和客户讲的是技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力源池 亿元项目不可能是客户自助施的,人力营收占比很低但画龙点睛,可能会干掉纯卖源的友商,也可能晚交付半月就亏损上千万。
流****水 2018-07-11
度云企业级运维平台——NoahEE
产管理 在机房,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件障,是企业的重要产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些产并记录信息,是个很重要的问题,搞得不好,这些产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。产管理,运维人员可以在器完成入库、上架工单后即可在管理看到该器并进行管理,无须任何其他操作。
M****点 2018-07-10
国云计算现状——产品篇
CDN是最早出现也是最成熟的云计算,它下列迷人的特点给云计算行业的未来立下标杆: 客户没学习成本,肯付费、懂IT常识就能接入,所客户都认同使用CDN能节省成本提高质量。 客户没对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,普通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,不了切走就行,甚至专门的立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨蛋糕。 关于Serverless的介绍,我建议家搜一下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调按需付费的计算只是快速释放源的戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个例或者多个例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂靠友商更烂胜出的,和IDC/CDN的比优赛无法相提并论。客户在吃够了厂商的亏以后,会选择信任能个人商誉,能做出承诺、调动源和平复问题的销售和人员。 个客户非常信任某个云销售,他告诉该销售,虽然某高层合作,某云也说报价肯定比某云低5%;但是某云的机制问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速切过来并坐站住了,这份暗相助就是靠个人商誉带来的信任。 我和客户谈故障的时候,喜欢详细故障原因刨析给客户,企业客户是讲道理的,不要糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是商誉的销售-售前-售后团队,这类人才永远是稀缺源。
追****圣 2018-07-11
给书记省长讲清楚云计算
第三类是外企云厂商,这类厂商是被广阔的国市场吸引过来的,也兼顾外企国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。 云计算行业不需要量雇佣本地劳动力,无法解决批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据心都会占用量电力。 对于四线城市政府和型国企,因为现困难限是搞不了云计算的;二三线城市和型国企才能提供云计算公司感兴趣的源。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀糊涂。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在型互联网公司,单机房故障因为其故障时间长、影响范围,一直是互联网公司运维人员的心头之痛。在传统的运维方式,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各互联网公司被披露的故障事件,单机房故障层出不穷。
m****t 2018-07-11
设计立公云云管平台
以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。云管平台可选接入厂商满足型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其挺尴尬的,理论上来说即使是内存缓存型双活机制,但是厂商PaaS的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年一遇,都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看过很低可靠性的,也听朋友说过本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露一个接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库会不会在同一个物理机。所以前文我对客户用PaaS当做节省自己搭建的人力,对型重型PaaS需求建议个案处理,因为各厂商通用的百倍赔偿根本就是个免责条款。 对象存储(OSS)和CDN。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及包及不同网络环境的部署会进行转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
小****园 2018-07-10
让PB级云存储不再神秘
云存储都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。如果客户的特别害怕丢数据,云平台确没手段能自证清白,谁偷过用户数据只能听业内风闻。 正让用户头疼的是平台方会根据计费日志估算你的业规模,就像安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投,自吹数据量数PB,该司投部去调了一下他们的消费金额就取消投了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和致的动作类型,一个新兴企业最好还是分散在两个厂商那,毕竟他们两家不能核对你的账单。 最后一条就是些领先厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户自身业的阶段,技术采购决策人请风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
嘟****y 2018-07-11
型企业适用的云平台账户体系
这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内源隔离 企业客户尽量会将源集采购,在采购IDC/CDN这类简单时不用担心源混淆。但套用过去管理虚拟机的经验,管理IaaS和PaaS时要源池隔离,不同部门和项目的主机源要分别计费和管理。 一个很常见的场景是,人事部的OA系统申请了15万云主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没源池的概念,就是一个账户管所源的“通铺”模式,客户要脚趾头都掰完了才能算清各项目的消费金额;万一云平台调整了源价格,较的客户又要从头重算一次。 这个“通铺”最尴尬的不是计费繁琐,而是一个账户下所源毫无权限隔离,客户或者只一个人去登录云平台,或者将不同业注册完全孤立的账户。互联网公司无法理解传统企业和自然人关的流程是多沉重,客户选一个云平台管理员完成所操作,客户的项目越多管理员员就越晕越累。
林****颖 2018-07-10
国云计算现状——成本篇
因为厂商也知道自己神经末梢太长,陈腐组织太多了,急需新鲜血液补充。 6、厂商相对厂来说足够立,客户可能和厂云的兄弟部门是直接竞争关系。 至于最近谈的很火的云厂商顺势做企业,其厂商都做的不太好,很难说谁成本优势,我会在产品篇和盈利篇做进一步说明。 下一讲将会是《国云计算现状-产品篇》,讲述各种云计算产品做起来难度,用途。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Q可以做虚拟化源限制基础设施不占用过多的机器源吗? Q如何先部署批量机器,确认无误之后,再做全集群部署?简而言之,灰度发布。 Q新到位10000机器,如何高效部署最新的基础设施?使集群机器环境同质化? 管窥豹,我们可以发现如果在私云或者混合云场景还是通过人肉运维的方式管理,那么管理效率将会十分低下,并且其重复繁杂的操作,难以证云环境的稳定性和安全性。急人之所急,需人之所需。百度云的工程师们便展开了一场头脑风暴...... 原始太初 私存在规模的机器集群,集群一片空虚混沌,渊面黑暗,仅字节流在其间穿梭。为效地管控体量庞的集群,合理分配源,降低运维成本,障云上穿越狂风暴雨,工程师们意识到:“必须要一个优秀系统来管控这混沌的集群世界!” 第一天 工程师们说:”这个系统要代表操作系统的意志!占用源少!对外部系统零依赖!装机自带!要能自升级和自活!“。当裸机启动之后,这个系统便以root身份运行,能活自己,还能托管维护其余基础设施,后续迭代升级也能自动完成,整个流程高度自动化,不需要人工介入,极地降低运维成本。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我这些技能当做历,但现在家都上云了,它们就只是闲聊的谈了。但客户上云就能少招一个研究这事的工程师,上云确也很意义啊。 夜静人稀,沙子龙关好了门,一气六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又微微一笑,“不传!不传!”----老舍《断魂枪》
x****3 2018-07-10
国云计算现状——采购篇
2、稳定性于功能需求 前文说过,云厂商卖的绝部分是替代性产品,云主机是替代物理机的,云存储是替代存储柜的。过去的产品功能再挫、价格再高也能用,你的产品优势是锦上添花,但你这刚开发出来的产品稳定性如何?即使只是常规感冒,你愿意让习医生练手吗? 3、价格可描述 价格不同于价值,价值是灵活解释的,而价格是固定的单价和数量。先说单价,IaaS源的头是公云主机,这不可说不可测的硬件超卖和漏洞百出的SLA,谁能证你60元的云主机就比人家70元的便宜?客户用私云方案吧,你的软件没专利和著作权,人力报价没施工人日规划表。PaaS层的天然按量付费,但数量该买多少个该如何预估?在这类企业按需付费并不讨喜,钱花多了谁来结账,钱花少了是不是业萎缩了,风传某些超低价标的CDN,就是靠虚报源数量来维持品质的。 4、尽量将责任外抛 客户肯给你掏钱就已经尽到自身责任了,不要让客户承担因为选你而产生的额外责任。如果客户放弃质和案例需求、自担稳定性风险、自己评估总价格,云厂商卖云就能像话费充值一样简单。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能多种方式,如sftp的集式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集量的时信息(前期文章《百度规模时序数据存储》介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
TOP