关于 万源哪里附近小姐服务〖8843O306VX〗服务真实搪把敬把饲 的搜索结果,共1041
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了例,规模、部署情况、例运行状况如何? 2.我从来? 的上游有些,不同的上游流量如何分配? 3.我往去? 的下游有些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),例运行状况等其他重要信息。简单来讲,它提供了一个名到资信息的一个映射关系。
s****d 2018-07-11
亿元级云用户分析
3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列等的模板化云主机,决定资池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资池的包装,完成资成本分析、交付展示和付款周期核算;在硬件资池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家有本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资是相对稀缺死板的广域网带宽,其交付的资是持续不断的,所以资部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资;再考验销售内部协调能力,能不能好资好价格抢到手;而盯客户的套路和百级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000目标是能现的;如果有1000的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD做时间调整会有效减少这类情形,它不是简单的龟速调整时间,而是有柔性时间调整策略,让时间线的跃变和调整尽量少影响业(详情见验);也不会盲目信任远端时钟,甚至固执的拒绝同步时间。NTPD相信本机时刻有可能不对,但不会忽快忽慢甚至停滞,NTPD通过多次收发包选择权威稳定的时间,算出双方间的网络延迟,然后才会采信新的时刻进行时钟同步。 五、误解的根和影响 因为NTPD不盲从其他时间,让老一辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入生产,网络延迟仍然不确定,且要观测NTPD同步效果需要时间。我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背上黑锅了。 有TOP10的互联网公司和上亿国家级项目用ntpdate+crond,上一代架构师为什么有这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
软件BUG 相比客户自己粗选一个物理机的OS,云主机精选的虚拟机OS、宿主OS、Hypervisor的软件BUG并不多,大中型云厂商都有精选底层支撑软件的力,但客户装物理机自选的OS都可能有驱动问题,三个精选软件的故障率没一个粗选软件更高。 但是从云资的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往上走的软件质量还不如XXXX,此处省略一五千字,客户自己揣摩吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍一样,脸疼了就屁股凑过来,屁股疼了就捏捏脸,一般不会按住一只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心要有秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不上墙,故障的性质对长久的品质很重要。 我列一下潜在的故障原因,些故障能忍,些故障不能忍,这些要云客户自己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没有特型要求前提下,是可以用开方案搭建。如果是云厂商连个开平台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确客户要自认倒霉,因为友商也会遇到同样问题。
M****点 2018-07-10
中国云计算现状——产品篇
肯定有读者怪我认识浅薄,但是云内资调度都做不好的用户,怎么能做好跨云的资调度。 既然谈到了混合云,肯定就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资采购金额过500以后,其子项目之间没有内网互通的需求,这时候该做一个跨厂商的云端资管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和 前面的云计算都免不了卖资或者卖软件,搞IT咨询和可以让公司增加企业的融资概念和收入构成。中型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚。但具体参与过程中,这类工作很少有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这两类客户都不会为一时一千元的咨询付费。
w****0 2018-07-11
单机房故障自愈-黎明之战
那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知有损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业有损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知有损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的有损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。 单机房故障止损流程 一个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)现了智能流量调度与自动止损能力。同时,基于时容量与时流量调度自动止损策略与管控风险,现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
m****t 2018-07-11
设计中立公有云云管平台
如果云平台面对的客户需求很简单,那可以每个用户默认只有一个VPC一个子网就可以现基本功能;NAT端口映射、VPC互联、VPN路由等高级功能都是可选功能。当前安全组功能繁琐而混乱,大部分客户需要的只是管控对外开放端口。 负载均衡是云平台唯一必备的PaaS,因为VPC环境下很难做keepalived和heartbeat。客户在VPC只能搭建没有HA的LB,还不如LB整体外抛给云平台解决。从技术上说负载均衡必备的是按IP分配的TCP负载均衡,让这个负载均衡主要做HA用,后端可以再接用户自定义的LB;但是各大云平台都已经支持HTTP/HTTPS/UDP负载均衡,云管平台可以一开始就四七层负载均衡功能都开放给用户。 第四加云资 前文的必要云资是狭义但经典的云资,其主要目的是将物理资抽象化输出资池化调用。而另一些上云更多是技术上强调自己接入了VPC,或者强调自己开箱即用、无限扩容。云管平台集成这些资是为了节省用户人力和统一出账单,在人力和工期紧张时,下列我们一个也不做,让用户自己在虚拟机上搭建;在人力和时间富裕状态,我们要认评估如何接入
流****水 2018-07-11
度云企业级运维平台——NoahEE
图1 NoahEE概览 接下来,我们这艘诺亚方舟分解开来,距离观察一下这艘船的方方面面。 管理 我们首先介绍管理是因为管理是整个运维工作的基础,也是NoahEE这个平台上各个系统能够进行批量自动化操作的关键。管理这个概念的出现,是随着业快速膨胀的必然,其要解决的主要问题是一个“量”,或者说“规模”的问题。在早期业较为简单时,一个可能部署在几台甚至一台机器上,进行变更等运维操作简单直接,登录到机器上人工操作就好了。随着业的发展,分布式应用与的广泛使用,我们越来越多的面临着运维场景与运维执行之间的脱节。 举个例子,今天17:00开始对X机房的地图导航模块进行升级。对于产品研发的同学来说,关注点是语义明确且更具描述性的“运维场景”;而对于运维人员来说,关注点是此次升级操作所涉及的机器等资。在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资的隔离)?权限又该如何控制?
追****圣 2018-07-11
给书记省长讲清楚云计算
对于四线城市政府和中型国企,因为现困难资有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资
小****园 2018-07-10
让PB级云存储不再神秘
最后一条就是有些领先大厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户自身业的阶段,技术采购决策人请风险告知公司决策层,该妥协还是硬扛不是你的职责范围。 3、大型用户谨慎选型 大型用户即使只存储1PB,每年也要花100多了;中型客户只要做选型,而大项目不仅要选型和定制,还有更多技术以外的东西要考量。 首先同样说价格问题,大型客户比中客户更难办,客户是嫌价格贵,大客户却怕低价砸场。云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,有的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招一个研究这事的工程师,上云确也很有意义啊。 夜静人稀,沙子龙关好了门,一气六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹一口气,用手指慢慢摸着凉滑的枪身,又微微一笑,“不传!不传!”----老舍《断魂枪》
嘟****y 2018-07-11
大型企业适用的云平台账户体系
但套用过去管理虚拟机的经验,管理IaaS和PaaS时要有资池隔离,不同部门和项目的主机资要分别计费和管理。 一个很常见的场景是,人事部的OA系统申请了15云主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50,B项目是200,等等等等。 如果没有资池的概念,就是一个账户管所有资的“大通铺”模式,客户要脚趾头都掰完了才能算清各项目的消费金额;一云平台调整了资价格,较的客户又要从头重算一次。 这个“大通铺”最尴尬的不是计费繁琐,而是一个账户下所有资毫无权限隔离,客户或者只有一个人去登录云平台,或者将不同业注册完全孤立的账户。互联网公司无法理解传统企业和自然人有关的流程是多沉重,客户选一个云平台管理员完成所有操作,客户的项目越多管理员员就越晕越累。将不同业区分为不同账户也解决不了问题,因为客户和云平台都要将这批账户统一管理,但际扣费进度总会超出意外,项目欠费停机或者追加预算,挨骂受累的都是平台管理员。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
林****颖 2018-07-10
中国云计算现状——成本篇
6、厂商相对大厂来说足够中立,客户可能和大厂云的兄弟部门是直接竞争关系。 至于最谈的很火的云厂商顺势做企业,其厂商都做的不太好,很难说谁有成本优势,我会在产品篇和盈利篇做进一步说明。 下一讲将会是《中国云计算现状-产品篇》,讲述各种云计算产品做起来有没有难度,有没有用途。
y****i 2018-07-11
做容器云的最佳用户
我很讨厌这些电线杆广告的宣传方式:可以现弹性伸缩、自动化运维、持续交付、微、秒级部署、高强度容灾、多版本控制等功能,从而改善和解决复杂的IT应用场景。事上是使用者自己设计维护可以弹性伸缩、自动运维、容灾冗余的程序,无论是用物理机、虚拟机还是容器(进程),本来能弹性的还是能弹性,没容灾的还是在赌命。 合格的架构和运维都瞧不上这些废话,因为十年前我们用裸机就能现这些功能了。但世上没有那么多合格的架构师,云计算要解决的就是缺人的问题。最早的云主机也是类似夸张无赖的宣传,我第一眼看云主机也觉得是个噱头,这些遗毒至今还在误导客户。本文是为说清容器的能力特性,我们该如何用好容器编排系统。 容器的基础特性 容器和虚拟机都属于IaaS云的范畴,按申请资量付费,不关注客户业逻辑和访问频率。容器只是隔离出一个进程,而虚拟机是模拟了一整套操作系统,这是双方的本质区别。 进程的创建就是申请内存、端口等系统资,但应用的初始化仍然需要时间,所以容器启动到可用仍然需要几秒甚至更久。容器的快速部署优势在于CI/CD环境,快速部署不只是说程序启动的快慢,而是决策的快、操作的简单。
TOP