关于 〖微855166⑤4〗彝良县找酒店妹子休闲上门会所按摩保健服务 的搜索结果,共1142
h****e 2018-07-10
程序:我从哪里来?
Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS实例的康检查功能,用户通过在Web页面对每一个实例配置康检查的方式,机器的Check Agent主动探测有实例的运行状况,并将康检查的结果报给Cache层,同时更新数据库内容。 总结 BNS系统满足间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎大家积极留言。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD装NTPD又没有装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联网公司和亿国家级项目里用ntpdate+crond,一代架构师为什么有这个误无人深究,下一代人将误固化为偏见,新一代人将偏见神化为迷信。 但无论误、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏科普,而是希望进阶工程师们多考虑一下如何规避这类误?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
亚****啦 2018-07-11
IT断魂枪--聊Linux系统启动过程
看看各的启动优先级也是一个讲究多多的过程,iptables比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是聊的谈资了。但客户云就能少招一个研究这事的工程师,云确实也很有意义啊。 夜静人稀,沙龙关好了小,一气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又一笑,“不传!不传!”----老舍《断魂枪》
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不说话,以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
追****圣 2018-07-11
给书记省长讲清楚云计算
如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有市场有客户那对方主动寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例迅速推广到全国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第一类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极小风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手里抢单
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
2.承担责任的能力 客户技术团队云供应商要方案,就是要规避自己的选型责任,云厂商最值钱的就是承担下这个责任,搞IT咨询的含金量远大于超卖CPU。客户对自己的很多提议也并没太大信心,以被我们拒了也不伤心生气,专业供应商都表态某事做不了,客户内部也就不再异想天开了。 倒是云厂商某些从业人员对内滑头滑出经验了,当他们遇到来自客户和售前的需求时,照本宣科照方抓药,是腹黑的把选型责任甩出去了;医生照护士和病人的建议来开药,治不好病也不负责任,这种小伎俩能瞒得住谁哪? 3.协助内部沟通的能力 我给很多客户都写过正式公函邮件,既是在公函表态承担责任,又是帮客户技术和运营团队制作对内交代的工具。 我们帮客户技术和运营团队解决难题,他们难题解决后促进我方的消费。其他客户内部部挤兑欺压这两个部,而已经入围的云供应商不太介意这些部的态度。 我举个偏点的例,一个造纸厂的IT说,虽然开源社区的邮箱方案简单又免费,但他还是买商业邮箱。他自己搭出来的免费邮箱天天有人挑刺说不满意,而他买商业方案以后,谁有意见谁就去老板请款买新模块,反而落个清静。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用,无状态-持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散操作就越爽,但全局操作开销更大更难控制。 实时改异步是我学的最后一IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作给支撑带来巨大压力,Peer合作的实时操作可能让数据申请方等一宿。架构师将一个无脑大事拆分成多个小事,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的小事需要更高业层级做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
l****m 2018-07-10
五年前的预言——2012年云计算时代的运维职位展望
生产领域的公司因为运维涉及到实实在在的钱,以运维人员待遇高(都是专有技术难培养)、做的事情少(自发做事多了出错,不如厂商技术支持),只是跳槽的难度比通用运维要大一些(都是专有技术不通用) 4、彻底转型,做和计算机无关的工作;选这条路的人一部分是自己有大觉悟或巧机缘,但另一部分人是真的适应不了环境变化,希望各位不要被淘汰掉。 最后总结一下,云计算是不可阻挡的历史趋势,它还给了运维五到十年的时间去修正自己的职场规划,我们可以顺势而为也可以激流勇进,但不可得过且过随波逐流最终。 天行,君自强不息。
小****君 2018-07-11
踏云落地--谈IT就业趋势
3.公版云在细节打磨,肯定没有精英定制支撑平台那么精细贴切,但对于新公司新项目来说,一个能跑起来的系统就够用了。很多技术精英也觉得打磨个小系统太累,图省事就买云凑合用了。4.要做好后台支撑并不只依靠精英们埋头苦干,巧妇难为无米之炊。云厂商有集采优势,云厂商多给点资源就能省下很多优化工作;部分情况云厂商还有数据优势,比如基于本站数据做风控需要反复调试,而对接云厂商外部参考画像简单很多。5.技术大牛都是让变态业需求给压出来的,如果公司有技术大牛,那各种需求就来了,但如果没有技术大牛,公司也压缩自己的IT难度。比如搞大促秒杀就要准备2000万云费,业掂量成本。客户要使用PaaS云就要照云厂商的是数据和业的格式约定。我们看到越来越多的证据,有了对象存储就不用招存储工程师,有了鉴黄和人脸识别就不用自己推演模型,有是反作弊系统就不用自己研究刷单,有了IM就不用自己做openfire。真正的行业精英是不护食眼前这碗饭,到问题最优解比住铁饭碗重要的多。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障给产品线带来全局性影响。
流****水 2018-07-11
度云企业级运维平台——NoahEE
对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作涉及的机器等资源在哪里。在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否分配给不同部(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例。这个例中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
TOP