关于 找服务小妹一条龙 78792796-微V号台州路南小妹特殊服务宣 的搜索结果,共1615
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几器 目前都荒废了,因为卡得匹。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信任度下降、给竞品占领市场机会等。
疏****月 2018-07-09
键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置文件变更(数据变更由于其高频、大量的点,我们已在数据传输文章《嗖的下,让数据自动生效》中专门讨论过)。般的业上线具有不定时操作、业部署情况复杂、单机启停策略复杂等点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由上线变更触发,如何减少变更过程中人为误操作,提供个灵活、稳定的部署系统是运维平研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平Noah发布了键上线部署系统——Archer。Archer致力于提供套产品线全过程的可迁移发布解决方案,实现键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等全过程的自动操作。在操作方面,Archer提供了命令行工具作为发起次上线的操作入口,这种设计模式也决定了其易于集成的点。在DevOps流水线作业中,Archer可以作为个环节结合进整测试发布流水线中。
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的套分布式的名字系统,是百度云Noah智能运维产品中的个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了名到资源信息的个映射关系。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房故障止损流程 个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。 单机房故障止损覆盖从感知到止损阶段,其中感知阶段依赖监控系统的故障发现能力,止损阶段依赖流量调度系统的调度能力。我们来具体看下百度的监控系统与流量调度系统是如何在单机房故障止损场景中起作用。 故障发现:百度监控平 百度监控平,针对单机房止损过程中的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。同时针对单机房止损依赖的容量管理场景,提供资源类监控采集,为容量规划、扩缩容提供数据支持。实现从运营商外网链、百度内部网络设备/链/实例、机器/容器的全方位数据采集与监控。满足网络类单机房故障、业类单机房故障的监控覆盖需求。 同时提供系列数据分析方法。如智能异常检测、趋势预测、多维度分析、关联分析、和链拓扑分析,实现故障的精准发现和定位。 故障止损:百度流量调度平 针对百度的网络架构和业架构,我们将流量调度拆分为三层:接入层、层、依赖层。 接入层:从外网用户发起请求经过运营商网络到百度统前端(BFE)的过程,使用DNS实现外网流量调度。
M****点 2018-07-10
中国云计算现状——产品篇
前言 上篇文章《中国云计算现状——成本篇》(首发改名为《做好云计算要花多少钱》)讲的是成本问题,即什么企业有可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从个老用户的角度谈谈每种云计算产品该如何使用,哪些产品改进是刚需放心吐槽,哪些产品有内因就是改不了。本文主要说用云产品的问题,买云产品的问题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要少被企PPT洗脑,追求华而不实的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比有什么点和局限性,客户明白点才能使用得心应手,客户明白局限性才会早作备用方案,产品经理心里不慌才会关注核心功能。 、IaaS产品 IaaS平的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核心组件是云主机,如虚拟网络、云硬盘和安全组都是为支撑云主机业的。
流****水 2018-07-11
度云企业级运维平——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平中选中导航的模块进行升级,运维平会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单机器进行操作)添加些指标采集任,并在件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
s****d 2018-07-11
亿元级云用户分析
硬件和系统管理——硬件是标准还是配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥有DDOS的资源和统前端的实践经验,还有海量廉价优质带宽。限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,个是室内装修工作,个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平输出。是个比资源更难量化的概念,我只引把火苗出来。
m****t 2018-07-11
设计中立公有云云管平
云管平可选接入厂商满足中型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其实挺尴尬的,理论上来说即使是内存缓存型也有双活机制,但是厂商PaaS的后架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年遇,大都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看过很低可靠性的,也听朋友说过本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库会不会在同个物理机。所以前文中我对中客户用PaaS当做节省自己搭建的人力,对大型重型PaaS需求建议个案处理,因为各厂商通用的百倍赔偿根本就是个免责款。 对象存储(OSS)和CDN。我直不理解Nova和Swift如何从业上联动,做虚拟机时跟客户解释买虚拟机不关心OSS,做对象存储时解释OSS和其他云平没什么好混合的。
林****颖 2018-07-10
中国云计算现状——成本篇
综合评估 综上所述,前三成本都是大厂商对比厂商占据绝对优势,但大厂商之间的成本区别并不大,因为硬件降价折扣是有底线,全国能拿到便宜器、机柜和带宽的厂商肯定超过十家了。企业客户是理性选择供应商,并不会盲目黏在个平不走,而各厂的技术差距早晚是能追平的,后入场的大玩家样有插足分羹的机会。 厂商的机会集中在如何避免同大厂商在前三上正面竞争,少丢分或不丢分,然后在后三上发力破局。首先,天使和A轮的厂商,创始人大都是业内知名人士。BCD轮的厂商抢人的姿势超级凶残,烧点工资快速刷出产品线和销售额,VC也会很开心。厂商可以保持灵活的身姿、手握精兵团队,而大厂商因为决策链太长,庸才冗吏太多,后三很容易丢分。 厂商并非毫无胜算,甚至活的比过去更好,因为大厂商在完成培育市场教育客户的工作,厂商在现状下可选的策略非常多,我简要描述下。 1、厂商可以做私有云,硬件机柜和带宽成本让客户来承担。 2、厂商有自身灵活性,售前阶段技术总监亲自出马很容易吹死大厂商的普通职员,出了故障CTO挂帅快速解决故障;而大厂员工吹牛怕是过不了法关、没高层和公关确认都不敢承认平有故障。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以上内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都上云了,它们就只是闲聊的谈资了。但客户上云就能少招个研究这事的工程师,上云确实也很有意义啊。 夜静人稀,沙子关好了门,气把六十四枪刺下来;而后,拄着枪,望着天上的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又笑,“不传!不传!”----老舍《断魂枪》
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是不仅要次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC样,用谁家的云就知道谁家有故障,用家就知道家的短处才是正常,只有前个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思完全不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍上规模,云主机用户总会遇到些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平都会有网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
小****园 2018-07-10
让PB级云存储不再神秘
对象存储的业形态很容易被平方窃取数据,即使你做了数据加密也可以根据你的计费日志评估你的业量,但你现在只有G级别的数据,暂时不用考虑太多厂商中立性。 容量数据也很容易迁移,假设你要从云存储迁移100G的数据到虚拟机,总成本不超过300元,迁移时间也可以控制在天以内。有了方便迁移这个性,云存储平有什么让你不爽的,直接迁走。 2、中型用户三思后行 GB级用户不在意的坑,TB级用户全部要踩遍;而TB级客户在面对繁杂市场传,很难看透云存储的本质内容。对象存储都是用API接口调用,普通用户看不到也不关心群集规模和技术细节。大家读完本文以后可以更理性和警惕的评估云存储供应商。 首先说数据持久性和安全性不用太关心。云存储厂商都称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还了; 平说自己能到多少个9,我们都笑笑就好,故障出来了平总能到理由的。你买最贵的EMC存储柜也不能保证100%不丢数据,怕丢数据要设计备份方案而不是寄希望于单硬件或
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用健壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走些冤枉,多份自信和自尊。 附录:NTPD时间跃变不遗漏Crond的实验 1、当前系统时间是 23点35分。
布****五 2018-07-10
如何执行命令
面临的困难 命令行的三要素,也是如何执行命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几十万机器上每天执行几十亿命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24时稳定运行,就不是件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建个可靠的命令传输网络,使命令信息在准确送达的前提下保障传输的可靠与高效,毕竟百度的几十万器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
TOP