关于 哪里有包夜小妹服务十薇v信78792796台江中州岛按摩一条街 的搜索结果,共1680
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了些实例,规模、部署情况、实例运行状况如何? 2.我从来? 的上游些,不同的上游流量如何分配? 3.我往去? 的下游些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的套分布式的名字系统,是百度云Noah智能运维产品个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了名到资源息的个映射关系。
流****水 2018-07-11
度云企业级运维平——NoahEE
资产管理 在机房,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存等等。这涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、上架工单后即可在管理看到该器并进行管理,无须任何其他操作。
m****t 2018-07-11
设计立公云云管平
云厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过云管平直接采购,客户年可能只节省几块钱。云管平要集成OSS和CDN时,定要注意这两个是没区域概念的,比如客户用了百度北京的虚拟机加上七牛浙的云存储和阿全国的CDN,此时客户业绝对跑的通,三方互通额外网络开销。云管平的资源创建和计费系统都要考虑清楚,尽量资源走个供应商,或要求不同供应商之间相互免费。 上述PaaS资源都个特点,可以照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文些更专业(偏门)的。 容器云入门门槛太高,在客户场景下缺乏成功案例,如果没具体项目要求上容器云,就等到接完上面的PaaS再考虑接入容器云。 反DDOS攻击只能由云厂商提供,因为开销偏大计费不灵活,但又没日常管理需求,客户到云管平到厂商沟通时直接用邮件、工单和合同即可,如果没频繁攻击和检测需求,可以不留展示界面只用邮件通知。
追****圣 2018-07-11
给书记省长讲清楚云计算
本文含如下内容。 从大时代背景来看什么是云计算,云计算为什么会兴起。 云计算如何带动地方经济,这是个不需要物流就可以全球的行业。 做云计算要满足件,如何才能筑巢引凤。 挑选合格的云计算合作厂商,每类厂商些特点。 云计算不是万能药,它无法解决些问题。 什么是云计算 近20年来,互联网引爆了全球的息技术革命,我国借助这次技术革命的大好机会,已经追上乃至领跑此次技术革命。 互联网技术深刻的改变着我们的生活,其行业生态也在逐步分化扩大,这现状客观促进了云计算技术的发展。 上世纪80年代,计算机仅应用于科研等少数行业,全国计算机从业人员不超过万人,从业人员大都很深的学术背景。 上世纪90年代,门户、论坛、邮件系统开始影响部分群众的生活,国内从业人员约为万人,可以分为软件和硬件两类工程师。 进入2000年,无纸化办公、游戏、社交、电商改变了大众的生活的方式,国内从业人员已经远超百万,技术分类种工程师。
疏****月 2018-07-09
键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平的底层工具链,为PaaS平提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的规范,语言、框架不统,部署策略不致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行转下载。 解决方案 各业线拥各自的规范,语言、框架不统,部署策略不致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了套既灵活又完整的规范。
M****点 2018-07-10
国云计算现状——产品篇
最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最魅力的PaaS是Serverless,我们重点看这四个个经典PaaS应该只是个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间限,因为企业已经数据库和DBA了,DBA并不任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。 对象存储是新兴需求,企业本来就没大规模对象存储搭建能力,而且对象存储对应用程序友好上手简单,客户对它是积极拥抱甚至业依赖。旦用户在对象存储平堆积了上TB的数据,大数据和AI分析应用自然就部署上来了。广域网传输稳定性不够成本又过高,只能是计算组件跟着存储就近部署,PaaS云创业公司从对象存储入手才更客户粘性和横向扩展空间。 大数据类PaaS类似于云数据库,用户要自带海量数据过来,Mapreduce过程和结果又都要用户负责,最终客户觉得云平什么都没做,大数据PaaS都用成IaaS定制模板虚拟机了。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭接入故障,时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户任度下降、给竞品占领市场机会等。
布****五 2018-07-10
如何执行命令
面临的困难 命令行的三要素,也是如何执行命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几机器上每天执行几亿命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24时稳定运行,就不是件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程要面临诸多困难,此处举几个突出的例子如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令息持久化。日均几亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建个可靠的命令传输网络,使命令息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
小****园 2018-07-10
让PB级云存储不再神秘
个客户要下载自己2000万fileinfo息,5息1k算,这2000万 fileinfo4GB大,就算云存储能精确的0.1秒查完,客户能力0.1秒下载完这些息吗? 如果你觉得元数据压力还是大,那还可以让计费系统、读写代理都对查询结果做缓存,或者将数据库挂在成熟的Proxy背后做分库和调度。 我们的数据库能低压力运行,就是设计时充分理解适应了对象存储元数据这简单需求。 3、灵活的读写代理 读写代理是整个群集保持松耦合高性能的关键点,这也离不开对场景的深度理解。 首先说读写代理的高可用、负载均衡和高性能,我们会在读写代理前面加几Nginx,客户端到读写代理都是无状态连接。客户端可以通过LVS、单域名DNS轮询、多域名分散业等方式将请求分散到多Nginx,Nginx将请求交给任意读写代理都是能得到相同结果的。单个读写代理崩溃了SDK端会后重试,直接访问API的用户会以为是自己网慢重新刷新。这么灵活的访问方式,性能问题多堆几机器就好了,20G带宽5万个链接很容易消化。 读写代理在访问客户时代表存储端,在群集内部扮演的可客户端。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
ntpdate只是个命令不是,它对远端时钟源是盲目任;假设个根NTP不稳定,所器获得了错误的时间,虽然现在业层可以容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间错可能日志就看不懂了。 NTPD做时间调整会效减少这类情形,它不是简单的龟速调整时间,而是柔性时间调整策略,让时间线的跃变和调整尽量少影响业(详情见附录实验);也不会盲目任远端时钟源,甚至固执的拒绝同步时间。NTPD本机时刻可能不对,但不会忽快忽慢甚至停滞,NTPD通过多次收发选择权威稳定的时间源,算出双方间的网络延迟,然后才会采新的时刻进行时钟同步。 五、误解的根源和影响 因为NTPD不盲从其他时间源,让老辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入生产,网络延迟仍然不确定,且要观测NTPD同步效果需要时间。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
软件BUG 相比客户自己粗选个物理机的OS,云主机精选的虚拟机OS、宿主OS、Hypervisor的软件BUG并不多,大型云厂商都精选底层支撑软件的实力,但客户装物理机自选的OS都可能驱动问题,三个精选软件的故障率真没个粗选软件更高。 但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后策略层面,越往上走的软件质量还不如XXXX,此处省略万五千字,客户自己揣吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍样,脸疼了就把屁股凑过来,屁股疼了就捏捏脸,般不会只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不上墙,故障的性质对长久的品质很重要。 我列下潜在的故障原因,些故障能忍,些故障不能忍,这些要云客户自己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源平标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确实客户要自认倒霉,因为友商也会遇到同样问题。
嘟****y 2018-07-11
大型企业适用的云平账户体系
这个账户只是为了让客户低成本的获取,不含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集采购,在采购IDC/CDN这类简单时不用担心资源混淆。但套用过去管理虚拟机的经验,管理IaaS和PaaS时要资源池隔离,不同部门和项目的主机资源要分别计费和管理。 个很常见的场景是,人事部的OA系统申请了15万云主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没资源池的概念,就是个账户管所资源的“大通铺”模式,客户要把脚趾头都掰完了才能算清各项目的消费金额;万云平调整了资源价格,较真的客户又要从头重算次。 这个“大通铺”最尴尬的不是计费繁琐,而是个账户下所资源毫无权限隔离,客户或者只个人去登录云平,或者将不同业注册完全孤立的账户。互联网公司无法理解传统企业和自然人关的流程是多沉重,客户选个云平管理员完成所操作,客户的项目越多管理员员就越晕越累。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几器 目前都荒废了,因为卡得匹。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Master端主要做复杂的任调度和管控逻辑,并且所功能都是模块化设计,用户可以根据自己的需求定制安装,括虚拟化容器管理,应用管理、部署、扩缩容、拓扑搭建和保活,集群控制等。 Agent端则以简单为原则,弱化繁琐功能,仅作为任的执行器,其的supervisor组件,结合父子双进程原理,做到自升级和自保活,把云运维人员的工作量降到最低。 整个系统的工作流程也分简洁优雅!Agent通过定期心跳的方式,与Master进行通,在心跳发发送本机状态息,在心跳回获取Master期望的本机状态plan,并把期望plan与本地实际plan进行对比,针对差异的地方做相应修改,使二者保持致,从而保证集群机器最终状态致。 总之句话,朝HALO在手,从此不用发愁。所运维需求,直接调用接口。 结 语 为了防止大规模集群被破坏,为了保护集群世界的安全,贯彻高效和简单的运维理念,这就是我们新代的基础设施管理引擎HALO。 亲爱的读者如果你看到这,恭喜你在意义的事上花费不止1分钟。
若****客 2018-07-10
IT架构的本质--我的五点感悟
在生僻业的规划实施过程,没人告诉我们该,我们只能靠摸透个又个访问逻辑图和数据生命周期,来摸索群集内些角色和依赖关系。 架构师的核心技能括画好访问逻辑和数据流量图,因为问题现状描述清楚了,问题就解决了多半了。个好的业访问逻辑图,不仅仅是几个圈圈几线连起来,其息量大到罗访问过程的所元素,也要详略得当高亮关键点。 5. 各环节都不可盲 容灾设计都尽人事和听天命 整个IT系统就没可靠的组件,架构师既不能盲目任撞大运,又不能无限冗余吓唬自己,而是在尽人事和听天命之间做好权衡。比如TCP就是要建立可靠链接,而现在做性能优化的时候,大家又嫌TCP太过笨重了。 业应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意外崩溃都是可以接受的。 支撑性不可靠,对于大部分业,预估年都不丢次数据,SLA能到99.95%就可以了。 操作系统故障崩溃,现在商用系统内核都很稳定,般故障都出在硬件驱动兼容性上,或者些照本宣科的傻瓜乱改默认参数。
s****d 2018-07-11
亿元级云用户分析
是个比资源更难量化的概念,我只引把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。 资源持续--亿元大客户不要求云平永不故障,但要云平承诺清晰SLA,事后给个合理的故障报告。 后记 如我在《复制阿云并不难》所说的,个云行业半个IT界”,云行业将垄断IT界半的营收和利润。本文讨论的亿元大项目,目标就是拿下IT圈的营收上限。现在亿元大单都是云厂商在侵入系统集成商的势力范围,后面云厂商会得到越来越多的亿元大单。
TOP