关于 兼职少妇包夜全套服务_薇V:78792796薇北京延庆服务一夜 的搜索结果,共1300
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的分布式的名字系统,是百度云Noah智能运维产品中的个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了名到资源信息的个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电信接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户信任度下降、给竞品占领市场机会等。
疏****月 2018-07-09
键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的规范,语言、框架不统,部署策略不致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的规范,语言、框架不统,部署策略不致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了既灵活又完整的规范。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,保你安心好睡眠文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有个实例或者多个实例部部署在同物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加些指标采集任,并在定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD做时间调整会有效减这类情形,它不是简单的龟速调整时间,而是有柔性时间调整策略,让时间线的跃变和调整尽量影响业(详情见附录实验);也不会盲目信任远端时钟源,甚至固执的拒绝同步时间。NTPD相信本机时刻有可能不对,但不会忽快忽慢甚至停滞,NTPD通过多次收发选择权威稳定的时间源,算出双方间的网络迟,然后才会采信新的时刻进行时钟同步。 五、误解的根源和影响 因为NTPD不盲从其他时间源,让老辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入生产,网络迟仍然不确定,且要观测NTPD同步效果需要时间。我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背上黑锅了。 真有TOP10的互联网公司和上亿国家级项目里用ntpdate+crond,上代架构师为什么有这个误会无人深究,下代人将误会固化为偏见,新代人将偏见神化为迷信。
M****点 2018-07-10
中国云计算现状——产品篇
物理机要求硬件稳定永不死机,而云主机适合批量创建快速释放,不太关心单台云主机的可靠性,这要求应用层支持高可用。即使云平台不承诺主机的无限高可用,其故障恢复速度也远快于物理机。新生的云计算不敢明确挑战物理机时代的用户观念,现在该纠正这个误区了,成熟的云计算平台不强调单机高可用。基于同样理念,用户追求超高配置的云主机是架构缺课硬件来凑的临时手段,正途是将业拆散到多台中低配主机上。 当前虚拟网络的性能短板并不是速率,主流云平台内网互通速率是1Gb,个物理万兆网卡正好负载20-30台虚拟机,这是性价比均衡的选择。虚拟网络的性能短板是量,器CPU不是交换机CPU,它的配置再好也只能处理20万左右量,所以台低配虚拟机被抓做SYNFlood肉鸡也能瘫痪个物理节点,各云平台正在逐步推进虚拟网卡的量限制,但还有大片的漏网之鱼。 虚拟网络对用户行为的改变是抑制ARP广播,各种旧有IP漂移技术都离我们而去了。最初这种鸡肋设定是vxlan发育不做的权宜之计,但这逐渐变成种新的权限分配的契机。
s****d 2018-07-11
亿元级云用户分析
我们先列出来哪些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打混淆集中交付,云厂商就不是卖资源而是卖梦想了。 3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列等的模板化云主机,决定资源池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资源池的装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家有本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的路和百万级销售类似,工作力度加大三五倍而已。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是不仅要次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC样,用谁家的云就知道谁家有故障,用家就知道家的短处才是正常,只有前个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思路完不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍微上规模,云主机用户总会遇到些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会有网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
追****圣 2018-07-11
给书记省长讲清楚云计算
当前云计算公司聚集在线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不解可能就会封禁大批互联网,但道封网命令就可以毁掉个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值提,市场和客户要靠云计算厂商自己去找。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,旦摸出来案例会迅速推广到国。
若****客 2018-07-10
IT架构的本质--我的五点感悟
网络不稳定,内网通用的技术方案很成熟,提复杂需求内网就能很稳定,我们最烦的是单条网线处于半死不活状态;IDC的外网SLA默认就是3个9,所以我说支撑性能到99.95%就已经很可靠了。 硬件不稳定,大部分架构师根本不懂硬件,只要不出硬件批次故障,架构师就可以将单点硬件和系统、绑在起做可靠性设计。 人力误操作,我们招不到不出故障的人,我自己达不到不出错的标准。只要员工没有恶意破坏,出了大范围故障就是群集健壮性设计不到位,别让操作工给技术总监和架构师顶。 监控和备份是运维的责,但架构师需要帮忙确认目的正确性,别备份了半天废数据,监控只看telnet80。 结束语 架构之术繁琐,架构之道浅显 本文讲的是架构工作的“道”,对与架构之“术”并不提及。不同的业系统的架构之术完不同,能拿来汇总借鉴的只有这几条简单的道理。如果个架构师只是炫耀具体优化架构的手法,却闭口不谈选型的道理,他们其实是在简单用公司业尝试赌博。 如果我们有架构之道做思想支撑,即使接手新业类型,庖丁可以解牛也可以杀猪,我们样能游刃有余心里不慌。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维位展望
我在写篇新的文章,其中会引用到这篇2012年的旧文,所以我原样摘抄下来,很幸能转型进入云计算这个行业。 云计算的时代正在来临,运维的工作也将在今后几年中发生翻天覆地的变化。 如果你是个能给自己做主的人,你必须看清形势顺势而为,在变革的时代埋头苦干仍然保证不了你的正常生活;如果你是个弓骑兵,无论你怎么勤学苦练都打不过坦克手的;铁达尼号上的乘客无论多有钱,总是免不了泡进海水里的。 首先,我作为个运维为何唱衰运维这个业。 我们运维靠什么能力在公司里自立哪? A.关心硬件和施工; B.关注网络问题; C.擅长系统和的调试维护; D.相对与架构师/DBA的价格优势; E.快速可靠的响应. 大家看看云计算能给企业带来的好处。 A.硬件完免维护; B.网络接近免维护; C.系统、接近免维护; D.无论是硬件还是人力成本都很廉价; E.可靠性高于个人。 我们会发现,云计算的目标就是要做的比运维人员更好,好到“不用关心”的地步。从技术上来说,各大云计算运营商对通用的Web、RDBMS、存储 都是可以做到很好的。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能个研究这事的工程师,上云确实也很有意义啊。 静人稀,沙子龙关好了小门,气把六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
小****园 2018-07-10
让PB级云存储不再神秘
对象存储还会用Fuse/NFS/FTP等手段来些传统客户的低负载低需求需求,以保证尽量减客户的业变化。比如说银行里依赖存储的应用有50个,其中5个高性能应用必须改用对象存储接口,而另外45个低需求应用可以沿袭旧的访问方式,否则换个存储要改50应用是推不下去的。 三、如何采购对象存储 各家公有云都做对象存储,那么该从哪些维度选存储,我有些思考和建议。不用带任何情怀和理想,年内能达到的存储容量是用户分类的唯标准,GB/TB和PB。同样也不带任何理想和情怀,企业采购云就是公平交易,不要奢求免费的蛋糕,我们只期望能物有所值就够了。 1、小型用户宽松心态 如果你是个GB级用户,年内存储量都不会达到1TB,这时候用对象存储只是为了方便开发应用,不用太多思考存储自身特性。 首先谈价格,100G数据的存储成本每天就几毛钱,我不想讨论如何节约毛钱的问题。 对象存储和云主机没任何直接技术关联,它是个独立到孤立的,典型互联网架构中,对象存储甚至不和云主机交互任何业数据,云存储直通客户APP。
布****五 2018-07-10
如何执行条命令
部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维过程中重要的环,频繁的交互意味着频繁的部署。部署过程可以拆解为两个小的步骤,是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可能有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时信息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,种是通过业软件提供的接口直接读取状态数据,另种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这基础能力,这也是今天我们的主题“如何执行条命令”的意义所在。
TOP