关于 巴曲外围女保健包夜_v信78792796繁昌县特殊服务能 的搜索结果,共856
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智运维团队研发的一套分布式的名字系统,是百度云Noah智运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频影响业的可用性并且会给公司带来直接或间接的损失。直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户任度下降、给竞品占领市场机会等。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的规范。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现力 百度统一前端(BFE)和百度名字(BNS)的流量调度力 单机房容灾力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范内,单机房故障会给产品线带来全局性影响。
流****水 2018-07-11
度云企业级运维平台——NoahEE
资产管理 在机房里,各种各样的器、网络设备和安全设备7x24小时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所有运维操作记录可追溯。有了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。
追****圣 2018-07-11
给书记省长讲清楚云计算
数据中心对电力的要求是大量且稳定,数据中心每年的电力消耗都在数万千瓦以上,其电力使用优先级等同于医院手术室,绝对不接受拉闸限电。 器就是高功耗高价格的专业电脑,云计算企业的采购规模一般远大于政企集采,他们从硬件厂商那里拿到极限低价,政府和国企提供的更多是采购资金的支持。 云计算是一个商业,不仅需要硬性支持,还需要足够的环境和政策支持。当前云计算公司聚集在一线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城市对互联网还只是简单的管控,稍有不解可就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以,大部分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
布****五 2018-07-10
如何执行一条命令
部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维过程中重要的一环,频的交互意味着频的部署。部署过程可以拆解为两个小的步骤,一是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可有多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础力,这也是今天我们的主题“如何执行一条命令”的意义所在。
s****d 2018-07-11
亿元级云用户分析
4.架构和流程变化分析 大型云用户在上云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥有DDOS的资源和统一前端的实践经验,还有海量廉价优质带宽。限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Q因异常挂掉,自动重启活吗? Q公司做活动,预计流量突增,扩容吗? Q公司活动结束,为节约成本,缩容吗? Q新开发的基础设施有问题,立马回滚吗? Q可以做虚拟化资源限制基础设施不占用过多的机器资源吗? Q如何先部署小批量机器,确认无误之后,再做全集群部署?简而言之,灰度发布。 Q新到位10000机器,如何高效部署最新的基础设施?使集群中所有机器环境同质化? 管中窥豹,我们可以发现如果在私有云或者混合云场景中还是通过人肉运维的方式管理,那么管理效率将会十分低下,并且其中重复杂的操作,难以证云环境的稳定性和安全性。急人之所急,需人之所需。百度云的工程师们便展开了一场头脑风暴...... 原始太初 私有云中存在大规模的机器集群,集群中一片空虚混沌,渊面黑暗,仅有字节流在其间穿梭。为有效地管控体量庞大的集群,合理分配资源,降低运维成本,障云上穿越狂风暴雨,工程师们意识到:“必须要有一个优秀系统来管控这混沌的集群世界!” 第一天 工程师们说:”这个系统要代表操作系统的意志!占用资源少!对部系统零依赖!装机自带!要自升级和自活!“。
p****d 2018-07-11
单机房故障自愈--运维的春天
干货概览 在单机房故障自愈--黎明之战中,我们介绍了单机房故障自愈的准备工作和基础设施,括容灾力建设、监控平台以及流量调度平台。本篇主要介绍单机房故障自愈的具体解决方案,内容括: 单机房故障止损的力标准 单机房故障自愈的整体架构 单机房故障自愈的常见问题和解决方案 单机房故障止损的力标准 在单机房容灾力、故障发现力、流量调度力基础上,业线具备了通过流量调度进行单机房故障止损的条件。理想情况下,我们希望构建一套完整、自动、智的自愈方案,但各个业线的点不同和基础力参差不齐,很难一蹴而就,所以我们建立起一套自愈力的等级标准,业线根据自身情况制定相应建设计划,逐步提升自愈力。 自愈力等级标准划分为5级,从Level 0的完全人工止损,到Level 4的自动化、智化止损。对于Level0、Level1,人工感知止损面临着速度慢、误操作、场景覆盖不全、风险控制力不足等问题;、Level2则实现了止损操作的平台化、预案化,一定程度上提升了止损效率;Level3则实现了自动化报警联动故障止损,实现了止损效率的进一步提升。
h****8 2018-07-10
力比梦想更重要——企业级难寻产品经理
个人产品经理是一个需要梦想和热情的职业,但在政企和工业级IT领域,力比梦想更重要。 本文是想说清楚,政企和工业级软件领域,力比梦想更重要,个人产品经理来到这个行业就会被秒成渣。如果一个企业要招产品经理,要知道这个行业有哪些难点痛点,需要什么样的产品经理(其实是软件和设计师)。 1. 需求拆解的力 个人产品经理在设计一款APP时,是可以用生理上的主观感受给产品打分的。但是让一个产品经理来设计个流水线自控系统,他的主观感受并不重要,必须用技术和业力将客户需求描述和引导。某些产品经理因为自己毫无感受憋不出词来,就把客户的要求当做圣旨跪拜,这不仅是吃里扒,还是会搅黄项目的搅屎棍。 要拆解客户的需求,必须技术上跟客户做平等对话,业上了解客户工作流程,还要理解大型客户内部的利害关系,不靠“视察”客户会议室装专家上宾,也不行一样凡事都跪问客户。 我举第一个例子是很多系统都有监控,监控系统的产品经理要完成下列工作才合格: 技术:产品经理对“check tcp 80”和“check http 200”这类业术语没概念,需要客户被坑一次骂一次才改一点点。
不****主 2018-07-09
高精地图
与普通地图不同,高精地图主要于自动驾驶车辆,通过一套独的导航体系,帮助自动驾驶解决系统性问题,扩展传感器检测边界。目前 Apollo 内部高精地图主要应用在高精定位、环境感知、决策规划、仿真运行四大场景,帮助解决林荫道路GPS号弱、红绿灯是定位与感知以及十字路口复杂等导航难题。 一、高精地图与传统地图 当我们开车时,打开导航地图通常会给我们推荐几条路线,甚至会显示道路是否拥堵以及每条路线将花费多长时间、是否有交通管制,有多少个交通号灯或限速标志等,我们会根据地图提供的息来决定是在行驶中直行、左转还是右转以及对周驾驶环境的评估。 而无人驾驶车缺乏人类驾驶员固有的视觉和逻辑力。如我们可以利用所看到的东西和GPS来确定自己的位置,还可以轻松准确地识别障碍物、车辆、行人、交通号灯等,但要想让无人车变得和人类一样聪明,可是一项非常艰巨的任。 这时就需要高精地图了,高精地图是当前无人驾驶车技术不可或缺的一部分。它含了大量的驾驶辅助息,最重要是含道路网的精确三维表征,例如交叉路口布局和路标位置。
M****点 2018-07-10
中国云计算现状——产品篇
某些云主机的超卖比过高,性太差,又因为各种原因不更换云厂商,那只基于性原因用物理机。 某些硬件性虚拟机还没模拟出来,或者你模拟了我也不,比如说Oracle RAC就偏爱硬件存储。 某些非TCP/IP资源必须接专用板卡,比如说接电话网络的器,接专用器材的器,接加密狗的器。 非技术因素必须用物理机,比如说某软件查不出问题来怪虚拟机,为了避免麻烦给它们地安排了物理机。 为了利旧等原因接着用物理机,有些单位的电费是行政部负担的。 既然要用物理机,要和虚拟机联动就要用混合云。混合云就是用专线打通两朵云,或者让物理机和虚拟机内网互通。肯定有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么做好跨云的资源调度。 既然谈到了混合云,肯定就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其子项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不像CDN一样随意迁移,但未来Serverless崛起,计算力也会在多厂商之间漂移的。
若****客 2018-07-10
IT架构的本质--我的五点感悟
只要员工没有恶意破坏,出了大范故障就是群集壮性设计不到位,别让操作工给技术总监和架构师顶。 监控和备份是运维的职责,但架构师需要帮忙确认目的正确性,别备份了半天废数据,监控只看telnet80。 结束语 架构之术琐,架构之道浅显 本文讲的是架构工作的“道”,对与架构之“术”并不提及。不同的业系统的架构之术完全不同,拿来汇总借鉴的只有这几条简单的道理。如果一个架构师只是炫耀具体优化架构的手法,却闭口不谈选型的道理,他们其实是在简单用公司业尝试赌博。 如果我们有架构之道做思想支撑,即使接手全新业类型,庖丁可以解牛也可以杀猪,我们一样游刃有余心里不慌。我曾经接手三种生僻晦涩的业,按照本文的原理去拆解和规划,就没有什么别难的。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家有故障,用一家就知道一家的短处才是正常,只有前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当行来糊弄。 至于PaaS云和IaaS云的设计实现思路完全不同,不在本文讨论范内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍微上规模,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会有网络IO超卖复用,而且用器CPU软解海量报文,其性还是比传统网络略差的。
TOP