关于 石宋学妹上门服务 78792796-微V号罗定双东一夜djea 的搜索结果,共1425
疏****月 2018-07-09
线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的下,让数据自动生效》中专讨论过)。般的业线具有不时操作、业部署情况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供个灵活、稳的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了线部署系统——Archer。Archer致力于提供套产品线全过程的可迁移发布解决方案,实现键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等全过程的自动操作。在操作方面,Archer提供了命令行工具作为发起线的操作入口,这种设计模式也决了其易于集成的特点。在DevOps流水线作业中,Archer可以作为个环节结合进整条测试发布流水线中。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联网公司和亿国家级项目里用ntpdate+crond,代架构师为什么有这个误会无人深究,下代人将误会固化为偏见,新代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用健壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏科普,而是希望进阶工程师们多考虑下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走些冤枉路,多份自信和自尊。
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 游有哪些,不同的游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的套分布式的名字系统,是百度云Noah智能运维产品中的个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了名到资源信息的个映射关系。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还会自义SLA标准——大部分API云连等待超时都没义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和云没直接联系,个是室内装修工作,个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求方都是保护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要IOE类集成商。
流****水 2018-07-11
度云企业级运维平台——NoahEE
图1 NoahEE概览 接下来,我们把这艘诺亚方舟分解开来,近距离观察下这艘船的方方面面。 管理 我们首先介绍管理是因为管理是整个运维工作的基础,也是NoahEE这个平台各个系统能够进行批量自动化操作的关键。管理这个概念的出现,是随着业快速膨胀的必然,其要解决的主要问题是个“量”,或者说“规模”的问题。在早期业较为简单时,可能部署在几台甚至台机器,进行变更等运维操作简单直接,登录到机器人工操作就好了。随着业的发展,分布式应用与的广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。 举个例子,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资源在哪里。在业规模发展到程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部(资源的隔离)?权限又该如何控制?
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招个研究这事的工程师,云确实也很有意义啊。 静人稀,沙子龙关好了小气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又笑,“不传!不传!”----老舍《断魂枪》
x****7 2018-07-10
从外行进阶专业 传统企业AI转型差的可能只是个百度EasyDL
面对企业应用AI的这几大难点,百度推出了EasyDL制化训练及平台,开放给有需求的用户。它的目标,是让零算法基础的用户,也可以基于自身业需求和数据,快速训练专属的制化AI模型,并且快速落地应用。 开发者只需创建模型、传并标注数据、训练模型并验证效果、线模型获取API或离线SDK四个可视化步骤操作,就能快速获得制化接口或者离线SDK。百度EasyDL实现零深度习基础、零代码获得制化深度习模型及接口。 从技术实现方面来看,百度EasyDL采用全球领先的AI Workflow引擎,底层基于PaddlePaddle高性能分布式深度习训练框架、以百度自有大规模数据集预训练模型为基础,利用深度优化后的transfer learning算法,并通过Auto Model Search和Early Stopping等策略,能获得高精度模型,超过2/3的模型准确率大于90%。训练起来,可能比专业人士还快。
w****0 2018-07-11
单机房故障自愈-黎明之战
同时流量调度也无法使得恢复正常。 要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要保证变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:下游使用固IP或固机器名进行直接连接。 问题:单机房故障发生时,关联的下游之间无法进行快速的流量调度止损。 要求:线关联不允许使用固IP或机器名链接,需使用具备流量调度能力的下游连接方式以实现下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。
M****点 2018-07-10
中国云计算现状——产品篇
有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么能做好跨云的资源调度。 既然谈到了混合云,肯就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其子项目之间没有内网互通的需求,这时候该做个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和实施 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和实施可以让公司增加企业的融资概念和收入构成。中小型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴说不要眼神也很诚实。但具体参与过程中,这类工作很少有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为小时千元的咨询付费。
布****五 2018-07-10
如何执行条命令
图2简单问题放大后也变得困难 百度目前拥有分布在世界各地的几十万台器,并且随着业的不断扩张,这个数字还在持续增长,构建个高效稳通用可扩展的命令描述、传递、执行系统在这样的环境中有着重要的现实意义。对百度各产品线的用户来说,这样的个系统,最基础的要求是:执行高效,控制灵活,扩展方便。 1.执行高效: 单机执行,要求能够达到秒级命令下发/执行/结果收集。 集群执行,要求支持同时在10万台并行执行,同时保证集群中每个机器达到单机执行的性能。 2.控制灵活: 单机控制,要求支持暂停、取消、重做功能。 集群控制,要求支持暂停点功能,也即可以在执行到某台器时暂停,等待人工检查确认无问题后可继续执行。 3.扩展方便: 支持插件,要求支持自义执行插件,用户可编写自己的插件执行相应操作。 支持回调,要求支持自义用户回调,如任执行失败调用相应回调接口。 除了以的业需求外,个分布式系统的搭建,还要考虑可用性、可扩展性、性能、致性等方面的硬性要求。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散操作就越爽,但全局操作开销更大更难控制。 实时改异步是我的最后IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等宿。架构师将个无脑大事拆分成多个小事,这就是异步架构,但拆分事就跟拆分数据表样,拆散的小事需要更高业层级做全局事保障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 个经典机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是对应。 3.
TOP