关于 找服务小妹一条龙十薇v信78792796普兰店市小妹真实服务按 的搜索结果,共1657
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些例,规模、部署情况、例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的套分布式的名字系统,是百度云Noah智能运维产品中的个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器上部署息(机器IP,部署路径,配置,端口息),例运行状况等其他重要息。简单来讲,它提供了名到资源息的个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户任度下降、给竞品占领场机会等。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是个体系化的,而ntpdate只是个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。
追****圣 2018-07-11
给书记省长讲清楚云计算
二三线城对互联网还只是简单的管控,稍有不解可能就会封禁大批互联网,但道封网命令就可以毁掉个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有场有客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值提,场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,旦摸出来案例会迅速推广到全国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
M****点 2018-07-10
中国云计算现状——产品篇
客户没有对接成本,可以随时更换其他云厂商,或默认即使用多个云厂商,通项目不需要高级售前、解决方案和质性定制开发。 客户只关注价格和质量两个维度,不用承担太多选型责任,大不了切走就行,甚至有专门的中立CDN监测的平台。 虽然业内对CDN生意评价不高,认为这就是卖资源,但每个云平台都将CDN收入列为重要单项,成熟的模式催熟了巨大蛋糕。 关于Serverless的介绍,我建议大家搜下ZStack张鑫的那篇文章。Serverless的之处在于要求程序为自己进行改造,其他强调需付费的计算只是快速释放资源的把戏,Serverless才是正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其SaaS产品和狭义的云计算没毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。
小****园 2018-07-10
让PB级云存储不再神秘
该文档即讲的技术问题,又说了心贴心的生态现状,产品决策和技术选型人员都可以来看看。 、前言和背景说明 能搭建和使用PB级存储直是强悍但无用的屠绝技,我们更多将其用于炫耀和吹嘘。但最近两三年,我接触了数家存储量到PB级的客户,深感屠绝技已经不再是摆设。 下列变化导致了PB级存储需求的横空出世,连带着CDN、大数据、AI技术并发展。首先看数据是因何产生的: 4G和光纤网络及,带宽提速但资费降价,UGC和PGC都如鱼得水。 智能终端的硬件竞赛让摄像头更清晰、传感器更灵敏。 物联网设备入网,例如传感器数据、医疗影像、基因测序、气象数据。 数据保存下来不代表有价值,曾经我们保留几百TB的日志,却只能做最简单的加减乘除统计,或者用于出问题后扒日志堆证据;我们可以下载数万部影视剧,但个人辈子都看不完这些视频。 现在某些营销云已经可以做到毫秒级响应做精准广告投放,用户的日志更有价值了;人工智能逐渐参与辅助医疗,医学影像数据值得保存年了。随着技术进步价格降低,无论是监管政策还是客户需求,都在推动着数据总量越来越大。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科版的Linux系统启动过程,正式版的启动过程可以写万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招个研究这事的工程师,上云确也很有意义啊。 夜静人稀,沙子关好了门,气把六四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
疏****月 2018-07-09
键上线Archer | 百度持续部署的瑞士军刀
后面任下发至具体机器,具体机器再从中转机拉取需要被部署的文件;中转机也为跨网络环境的部署提供了可能,隔离网段中的机器无法访问内网机器,通过中转的“搭桥”完成了跨网段的数据传输; 提高自动化效率,能够集成测试发布自动化流水线 自动化效率方面,Archer提供了命令行工具,可接入各种脚本、平台。另外,Archer也可定制化单机流程:针对不同的业场景,Archer提供了名为“operation_list” 的配置文件,采用YAML语法。单机执行流程步骤被定制化成固定几个种类。用户通过简单的配置,即可现“启停监控”、“启停”、“数据传输”、“执行某些命令或脚本”、“启停定时任”等上线过程中的常见操作的自由组织及编排。这种形式大大扩展了Archer的适用范围。在了解Archer使用方法的情况下,OP几分钟内即可配置出适用于数不同产品的上线方案。 其他设计点 每次的部署流程通过web总控端的参数解析后,就被作为任下发到每台被部署的目标机器。当部署任从总控端发到被部署机器上时,任的具体执行依赖agent及系列脚本。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得匹。
布****五 2018-07-10
如何执行命令
面临的困难 命令行的三要素,也是如何执行命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几万台机器上每天执行几亿命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24时稳定运行,就不是件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令息持久化。日均几亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建个可靠的命令传输网络,使命令息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
流****水 2018-07-11
度云企业级运维平台——NoahEE
文章概览 过去的文章为大家介绍了百度云智能运维的方方面面,从监控、部署等传统的运维技术到智能异常检测、故障自愈等智能运维技术,这些运维基础能力和黑科技,是年来百度工程师对技术孜孜不倦求索的结果,也见证了百度运维年间的创新历程。很多同学在看了这些文章后,都在想如何把这些领先的运维技术与理念用到自己的工作中,但苦于建设运维平台不是蹴而就的,成本也让人望而却步,于是不少同学都在希望我们能够有个产品的形式输出这些技术,方便将这些前沿技术运用到自己的工作环境中。 在分析了各行业的运维场景与需求,结合百度历年来运维的经验与技术沉淀,并经过运维团队的精心打磨后,今天我们可以很骄傲的给大家呈现这个百度的运维产品企业版 – NoahEE。 在介绍NoahEE之前,有必要说下百度内部的统自动化运维平台Noah。Noah来源于圣经中“诺亚方舟”的故事,我们用这个名字来寓意能够避免灾难,稳固而坚的平台。作为系列运维系统的集合,Noah包括了管理、机器管理、资源定位、监控报警、自动部署、任调度等等,已经了百度数年之久。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能现的;如果有1000万的非冷备存储池,那很容易带来数倍数倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了理 3.4人力资源池 亿元项目不可能是客户自助施的,人力营收占比很低但画点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损上千万。
林****颖 2018-07-10
中国云计算现状——成本篇
综合评估 综上所述,前三成本都是大厂商对比厂商占据绝对优势,但大厂商之间的成本区别并不大,因为硬件降价折扣是有底线,全国能拿到便宜器、机柜和带宽的厂商肯定超过家了。企业客户是理性选择供应商,并不会盲目黏在个平台不走,而各厂的技术差距早晚是能追平的,后入场的大玩家样有插足分羹的机会。 厂商的机会集中在如何避免同大厂商在前三上正面竞争,少丢分或不丢分,然后在后三上发力破局。首先,天使和A轮的厂商,创始人大都是业内知名人士。BCD轮的厂商抢人的姿势超级凶残,烧点工资快速刷出产品线和销售额,VC也会很开心。厂商可以保持灵活的身姿、手握精兵团队,而大厂商因为决策链太长,庸才冗吏太多,后三很容易丢分。 厂商并非毫无胜算,甚至活的比过去更好,因为大厂商在完成培育场教育客户的工作,厂商在现状下可选的策略非常多,我简要描述下。 1、厂商可以做私有云,硬件机柜和带宽成本让客户来承担。 2、厂商有自身灵活性,售前阶段技术总监亲自出马很容易吹死大厂商的通职员,出了故障CTO挂帅快速解决故障;而大厂员工吹牛怕是过不了法关、没高层和公关确认都不敢承认平台有故障。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常任某个云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐站住了,这份暗中相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有心向客户证明,换了其他厂商也样会挂;面对人为故障,踏认错是对客户的最后尊重,而公开事也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让赖你的客户受伤又受骗。
TOP