关于 兼职少妇包夜全套服务 78792796-微V号福鼎市模特服务x 的搜索结果,共769
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置文件变更(数据变更由于其高频、大量的点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专门讨论过)。一般的业上线具有不定时操作、业部署情况复杂、单机启停策略复杂等点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由上线变更触发,如何减变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键上线部署系统——Archer。Archer致力于提供一产品线过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次上线的操作入口,这种设计式也决定了其易于集成的点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例部部署在同一物理机房的程序块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也无法使得恢复正常。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户信任度下降、给竞品占领场机会等。 单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设施故障:物理机房故障、网络链路拥塞、流量转发基础设施故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24小时值班,接收大量的报警,随时准备在紧急情况下进行响应、决策、操作一系列故障止损动作,尽量挽回损失,降低故障影响。 但上述解决方案会面临如下问题: 响应可能不够迅速:例如间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。
M****点 2018-07-10
中国云计算现状——产品篇
前言 上篇文章《中国云计算现状——成本篇》(首发改名为《做好云计算要花多钱》)讲的是成本问题,即什么企业有可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从一个老用户的角度谈谈每种云计算产品该如何使用,哪些产品改进是刚需放心吐槽,哪些产品有内因就是改不了。本文主要说用云产品的问题,买云产品的问题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要被企宣PPT洗脑,追求华而不实的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比有什么点和局限性,客户明白点才能使用得心应手,客户明白局限性才会早作备用方案,产品经理心里不慌才会关注核心功能。 一、IaaS产品 IaaS平台的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核心组件是云主机,如虚拟网络、云硬盘和安组都是为支撑云主机业的。
追****圣 2018-07-11
给书记省长讲清楚云计算
二三线城不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会有极大的管控压力。二三线城对互联网还只是简单的管控,稍有不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络保驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有场有客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值一提,场和客户要靠云计算厂商自己去找。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功式案例,一旦摸出来案例会迅速推广到国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些点。 前文说的为何要引凤,如何算筑巢。
s****d 2018-07-11
亿元级云用户分析
我们先列出来哪些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打混淆集中交付,云厂商就不是卖资源而是卖梦想了。 3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列等板化云主机,决定资源池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资源池的装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规交付和成本控制,至于短处么——家家有本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的路和百万级销售类似,工作力度加大三五倍而已。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用健壮性和业性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能些沟通成本,走一些冤枉路,多一份自信和自尊。 附录:NTPD时间跃变不遗漏Crond的实验 1、当前系统时间是 23点35分。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家有故障,用一家就知道一家的短处才是正常,只有前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思路完不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍上规,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会有网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
p****d 2018-07-11
单机房故障自愈--运维的春天
干货概览 在单机房故障自愈--黎明之战中,我们介绍了单机房故障自愈的准备工作和基础设施,括容灾能力建设、监控平台以及流量调度平台。本篇主要介绍单机房故障自愈的具体解决方案,内容括: 单机房故障止损的能力标准 单机房故障自愈的整体架构 单机房故障自愈的常见问题和解决方案 单机房故障止损的能力标准 在单机房容灾能力、故障发现能力、流量调度能力基础上,业线具备了通过流量调度进行单机房故障止损的条件。理想情况下,我们希望构建一完整、自动、智能的自愈方案,但各个业线的点不同和基础能力参差不齐,很难一蹴而就,所以我们建立起一自愈能力的等级标准,业线根据自身情况制定相应建设计划,逐步提升自愈能力。 自愈能力等级标准划分为5级,从Level 0的完人工止损,到Level 4的自动化、智能化止损。对于Level0、Level1,人工感知止损面临着速度慢、误操作、场景覆盖不、风险控制能力不足等问题;、Level2则实现了止损操作的平台化、预案化,一定程度上提升了止损效率;Level3则实现了自动化报警联动故障止损,实现了止损效率的进一步提升。
若****客 2018-07-10
IT架构的本质--我的五点感悟
应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意外崩溃都是可以接受的。 支撑性不可靠,对于大部分业,预估一年都不丢一次数据,SLA能到99.95%就可以了。 操作系统故障崩溃,现在商用系统内核都很稳定,一般故障都出在硬件驱动容性上,或者有些照本宣科的傻瓜乱改默认参数。 网络不稳定,内网通用的技术方案很成熟,提复杂需求内网就能很稳定,我们最烦的是单条网线处于半死不活状态;IDC的外网SLA默认就是3个9,所以我说支撑性能到99.95%就已经很可靠了。 硬件不稳定,大部分架构师根本不懂硬件,只要不出硬件批次故障,架构师就可以将单点硬件和系统、绑在一起做可靠性设计。 人力误操作,我们招不到不出故障的人,我自己达不到不出错的标准。只要员工没有恶意破坏,出了大范围故障就是群集健壮性设计不到位,别让操作工给技术总监和架构师顶。 监控和备份是运维的责,但架构师需要帮忙确认目的正确性,别备份了半天废数据,监控只看telnet80。 结束语 架构之术繁琐,架构之道浅显 本文讲的是架构工作的“道”,对与架构之“术”并不提及。
k****0 2018-07-09
使用Python SDK开发语录类技能
此技能板是针对语录类技能设计的板,如海贼王语录,游戏语录等。本文从技能交互、部署讲述如何快速搭建海贼王语录技能。 语录类技能板的交互型 语录类技能跟用户的交互很简单。用户说“来一个”,技能从语录列表中选取一条读给用户,用户可以继续说“来一个”继续听语录,或者说“退出”以结束交互。 使用板开发技能的流程 新建技能 新建技能详情请参阅自定义技能创建 配置意图 意图配置详情请参阅意图、常用表达和槽位 语录类技能板需要创建“获取语录”意图。获取语录意图如下图所示: 配置技能部署 语录类技能板使用CFC部署技能。使用CFC部署技能详情请参阅 百度云CFC 修改CFC函数代码 开发者通过板创建函数以后,可在线编辑函数。
M****H 2018-07-11
故障定位场景下的数据可视化实践
多个维度关联分析 细分维度的故障所带来的表象可能会在多个维度均有表现,比如整体的访问拒绝上升,我们会发现分机房的拒绝量上升,也看到分块的拒绝上升。那么我们如何确认故障的根因是来源于某个机房还是某个块,还是这两者的交叉维度,即某个机房的某个块导致的问题。 矩阵热力图可以解决这一问题。将需要做分析的两个维度分别作为横纵坐标,通过阶梯的阈值颜色将对应交叉维度的取值展现再坐标上。我们便可非常直观的看到这这两个维度对于整个业的影响情况,如下图所示: 我们可以看到,从纵向的分块维度,可以看到Module 4在多个机房都有明显的访问拒绝情况,而在横向分机房维度,则没有明显的征。则说明是Module 4块导致的问题。 嵌维度下钻分析 类似于国家-省份-城的行政区域划分,区域-机房-机器的部署划分,我们可以看到很多维度之间存在着层次嵌的关系。我们故障定位的思路也是如此,从整体到局部逐步分层下钻定位。 我们提供了多维度展开报表功能支持这种下钻分析。
布****五 2018-07-10
如何执行一条命令
集群控制,要求支持暂停点功能,也即可以在执行到某台器时暂停,等待人工检查确认无问题后可继续执行。 3.扩展方便: 支持插件,要求支持自定义执行插件,用户可编写自己的插件执行相应操作。 支持回调,要求支持自定义用户回调,如任执行失败调用相应回调接口。 除了以上的业需求外,一个分布式系统的搭建,还要考虑可用性、可扩展性、性能、一致性等方面的硬性要求。 如何解决 为了解决这个简单的难题,我们设计了如图3所示的百度集群控制系统(Cluster Control System,简称CCS系统),通过分离控制信息与执行信息建立了两级数据型,结合命令执行及机房部署点建立了四级传输型,通过三级守护方式建立了稳定的执行代理,在大规器集群上解决了“命令三要素”问题。 图3百度集群控制系统架构 截至目前,CCS系统已经部署在百度的所有机房中,用户可以方便的在任意一台机器上进行秒级命令下发和结果收集,日均承载数亿次来自各产品的接口调用。关于数据型、传输型、执行代理这“分布式命令三要素”的设计及应用,我们将在下一篇文章中详细介绍。
小****园 2018-07-10
让PB级云存储不再神秘
云存储都对接多媒体处理,面上的多媒体处理大都用imagemagick和ffmpeg,各家的主体功能趋同,细节毛刺上区别的这个级别的用户感觉不出来,有新需求也会被礼貌性无视。 对象存储的业形态很容易被平台方窃取数据,即使你做了数据加密也可以根据你的计费日志评估你的业量,但你现在只有G级别的数据,暂时不用考虑太多厂商中立性。 小容量数据也很容易迁移,假设你要从云存储迁移100G的数据到虚拟机,总成本不超过300元,迁移时间也可以控制在一天以内。有了方便迁移这个性,云存储平台有什么让你不爽的,直接迁走。 2、中型用户三思后行 GB级用户不在意的坑,TB级用户部要踩一遍;而TB级客户在面对繁杂场宣传,很难看透云存储的本质内容。对象存储都是用API接口调用,普通用户看不到也不关心群集规和技术细节。大家读完本文以后可以更理性和警惕的评估云存储供应商。 首先说数据持久性和安性不用太关心。云存储厂商都宣称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还小了; 平台说自己能到多个9,我们都笑笑就好,故障出来了平台总能找到理由的。
TOP