关于 哪里有包夜小妹服务 78792796-微V号台山端芬镇服务女生 的搜索结果,共1395
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了些实例,规模、部署情况、实例运行状况如何? 2.我从来? 的上游些,不同的上游流量如何分配? 3.我往去? 的下游些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器上部署信息(机器IP,部署路径,配置,口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平的底层工具链,为PaaS平提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的规范。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。同时流量调度也无法使得恢复正常。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几器 目前都荒废了,因为卡得一匹。
M****点 2018-07-10
中国云计算现状——产品篇
前言 上篇文章《中国云计算现状——成本篇》(特大首发改名为《做好云计算要花多少钱》)讲的是成本问题,即什么企业可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从一个老用户的角度谈谈每种云计算产品该如何使用,些产品改进是刚需放心吐槽,些产品内因就是改不了。本文主要说用云产品的问题,买云产品的问题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要少被企宣PPT洗脑,追求华而不实的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比什么特点和局限性,客户明白特点才能使用得心应手,客户明白局限性才会早作备用方案,产品经理心不慌才会关注核心功能。 一、IaaS产品 IaaS平的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核心组件是云主机,如虚拟网络、云硬盘和安全组都是为支撑云主机业的。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
运维人员的职责由处理转向管理,最终运维人员在低压力值班中保证稳定运行。 单机房故障自愈解决方案概述 百度AIOps框架中,单机房故障自愈解决方案构建在运维知识库、运维开发框架、运维策略框架三个核心能力之上。具体过程为自愈程序搜集分散的运维对象状态数据,自动感知异常后进行决策,得出基于动态编排规划的止损操作,并通过标准化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自动化运维平之上,实现了业在任意单个机房故障情况下皆可自愈的效果。 截至目前该方案已覆盖百度大多数核心产品,止损效率较人工处理提升60%以上。典型案例: 在8月28日某产品在单机房故障发后1min55s完成止损。 在后续文章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中些常见问题? 如何证明已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时如何感知故障? 人工止损时如何收集故障信息? 人工止损时如何进行流量调度? 单机房故障机器人止损方法 如何设计单机房故障自愈整体方案? 如何降低流量调度风险?
流****水 2018-07-11
度云企业级运维平——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平中选中导航的模块进行升级,运维平会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
s****d 2018-07-11
亿元级云用户分析
4.架构和流程变化分析 大型云用户在上云过程中,其IT架构逻辑逐步发着变化,为了避免技术泄密和保证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是特配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥DDOS的资源和统一前的实践经验,还海量廉价优质带宽。限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即IT资源,也输出。
若****客 2018-07-10
IT架构的本质--我的五点感悟
数据的产和消失 数据不会凭空产,但会凭空消失 数据不会凭空产,计算机或者自输入设备获取数据,或者自其他数据源导入数据,而且原始数据的转化规则也要人类来定义。我们要便捷轻巧安全可靠的获取数据,就要选好数据源,保障好传输路径,定义好数据变换规则。 在一个数据命周期内,为了防止数据全部或部分凭空消失,数据的容错校验、关联复原、冷热备份和安全删除都要考虑到位。 在僻业的规划实施过程中,没人告诉我们该,我们只能靠摸透一个又一个访问逻辑图和数据命周期,来摸索群集内些角色和依赖关系。 架构师的核心技能括画好访问逻辑和数据流量图,因为问题现状描述清楚了,问题就解决了一多半了。一个好的业访问逻辑图,不仅仅是几个圈圈几条线连起来,其信息量大到罗访问过程的所元素,也要详略得当高亮关键点。 5. 各环节都不可盲信 容灾设计中都尽人事和听天命 整个IT系统中就没可靠的组件,架构师既不能盲目信任撞大运,又不能无限冗余吓唬自己,而是在尽人事和听天命之间做好权衡。比如TCP就是要建立可靠链接,而现在做性能优化的时候,大家又嫌TCP太过笨重了。
m****t 2018-07-11
设计中立公云云管平
而另一些上云更多是技术上强调自己接入了VPC,或者强调自己开箱即用、无限扩容。云管平集成这些资源是为了节省用户人力和统一出账单,在人力和工期紧张时,下列我们一个也不做,让用户自己在虚拟机上搭建;在人力和时间富裕状态,我们要认真评估如何接入。 依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络自由漂移,大部分云厂商又不太支持共享硬盘、心跳线等功能。云管平可以集成这些资源应对中型客户需求,也可以直接建议客户单机部署;重型用户需求产了就不轻易变动,可以通过云管平自主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户旁观选举的自协商群集。最近十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户会连接多个mongos和mongod,客户旁观选举和切换主节点,不依赖虚拟IP就实现应用层高可用和负载均衡。
追****圣 2018-07-11
给书记省长讲清楚云计算
但现在云计算厂商还在早期扩张摸索之中,云厂商极渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到全国。这个窗口期只三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心数。 第一类是大型云厂商,他们自身很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手抢单子。地方政企和这类企业合作时很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术些优势,而项目的推进落地都是要靠云厂商来执行的。 第三类是外企云厂商,这类厂商是被广阔的中国市场吸引过来的,也兼顾外企中国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
ntpdate只是个命令不是,它对远时钟源是盲目信任;假设一个根NTP不稳定,所器获得了错误的时间,虽然现在业层可以容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间错可能日志就看不懂了。 NTPD做时间调整会效减少这类情形,它不是简单的龟速调整时间,而是柔性时间调整策略,让时间线的跃变和调整尽量少影响业(详情见附录实验);也不会盲目信任远时钟源,甚至固执的拒绝同步时间。NTPD相信本机时刻可能不对,但不会忽快忽慢甚至停滞,NTPD通过多次收发选择权威稳定的时间源,算出双方间的网络延迟,然后才会采信新的时刻进行时钟同步。 五、误解的根源和影响 因为NTPD不盲从其他时间源,让老一辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入产,网络延迟仍然不确定,且要观测NTPD同步效果需要时间。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
遇到过几次倒霉事以后,我习惯用dd备份每器的前512字节,但自从我做完备份以后,就再也没倒霉过。 4.GRUB引导启动vmlinuz内核。 GRUB2如果细说stage1、stage1.5、stage2多个步骤,我们可以简单认为前面两步是为了苟到stage2加载为止。 我们用GRUB来选定要加载的内核,并向其传递大量启动参数,这样就可以在多OS、多Kernel、多runlevel之间来回切换。网上的GRUB调试教程都集中在这一步,我们还可以直接传参以单用户模式启动,直接无密码登陆器。 些人习惯给/boot一个128M的分区,可能是老师的老师说过这样比较“安全”。那是在更早的版本GRUB程序读不了GB级磁盘分区,没办法加载vmlinuz内核,现在已经只是一个迷信而已。 5.内核启动加载驱动,但这还没触及任何业。 不同硬件同一个版本的vmlinuz内核hash值是相同的,因为驱动信息放在initrd*.img。Initrd*.img是一个精简但带了所驱动的linux镜像,一般系统安装完之后自动成,也可以事后手动成。
小****园 2018-07-10
让PB级云存储不再神秘
我的建议是多发几个工单,看接工单的是技术人员还是商,看工单处理周期和结果吧。 分发能力好理解,某网盘厂商一开始是把云存储挂载器后,由的BGP带宽来负责网盘文件下载,后来改成云存储通过CDN直接给网盘客户发数据,带宽成本降低到以前的20%。 (3)厂商的职业操守 前文刚一本正经的说云计算是企业,现在怎么突然又提到操守了?国内的云平都是做互联网ToC业起家,习惯用摆布个人用户的伎俩去招揽企业意,近几年大型云平屡屡爆出蛮横管理狡诈运营的丑闻。云计算是企业,云平是我们的供应商不是我们的管理者。TB级用户正是业高速发展的关键时刻,我们更要防备某些吃相难看的混蛋。 云存储相对业简单,遇到野蛮运营的问题主要集中在窃取数据、估算业量、恶意不兼容其他这三方面。 窃取用户数据指的是监守者自盗后自用,要是泄露给第三方那是安全事故可以直接报警抓人,但平方自用用户数据很难抓现行。云存储大都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云大数据分析了,但不挂个人信息的基因测序样本被偷了也不怕。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物所值,但巧妇难为无米之炊,原始资源投入不够云就不可能很稳定。面向中客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对大客户时会很坦诚。 作为持久共的大甲方,请关注乙方的成本红线,买家永远没卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来倪的。时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;时候明明是人为原因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会找个其他原因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时信息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
2、进行云计算器维护;几大云供应商自己也要维护器,那些大中型企业肯定会自己做私云,在这个云计算平也是需要运维人员进行从低监控到高架构的一系列维护工作,但自动化运维技术会让运维人员的数量大大减少,可能每个公司都只一两个团队了。 3、进传统行业继续做运维;笔者就是在一个通讯公司工作,我可以很乐观的说云计算会对公司造成限的技术革新,比如说实现OS的虚拟化。我们需要的SIP必须亲自搭建,阿盛大新浪都没得卖,甚至因为硬件和网络限制让我们很难使用虚拟机;而外宣网站一类的东西根本不是我们的核心竞争力,能用就好效率低一些没关系。除了通讯公司之外,产领域(比如管理产线)也类似的顾虑,云计算的优势和公司的业需求完全不沾边,所以这类公司的运维可能会是最后的运维。大家找工作的时候都习惯找网站相关的工作,但你学过Web就一定要找网站工作是挺蠢的行为,危邦不入乱邦不居,最好不要涉足一个没前途的行业。
TOP