关于 小妹找服务全套【薇V:78792796】无锡云亭模特服务min 的搜索结果,共861
M****点 2018-07-10
中国计算现状——产品篇
最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信任端未知架构数据库的性能、稳定性和数据安性,而且企业仍然需要DBA承担设计维护工作。 对象存储是新兴需求,企业里本来就没大规对象存储搭建能力,而且对象存储对应用程序友好上手简单,客户对它是积极拥抱甚至业依赖。一旦用户在对象存储平台堆积了上TB的数据,大数据和AI分析应用自然就部署上来了。广域网传输稳定性不够成本又过高,只能是计算组件跟着存储就近部署,PaaS创业公司从对象存储入手才更有客户粘性和横向扩展空间。 大数据类PaaS类似于数据库,用户要自带海量数据过来,Mapreduce过程和结果又都要用户负责,最终客户觉得平台什么都没做,大数据PaaS都用成IaaS定制板虚拟机了。
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度智能运维团队研发的一分布式的名字系统,是百度Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
追****圣 2018-07-11
给书记省长讲清楚计算
从长周期来看计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠计算厂商自己去。但现在计算厂商还在早期扩张摸索之中,厂商极端渴求各种政企业成功式案例,一旦摸出来案例会迅速推广到国。这个窗口期只有三五年,随着政企业被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的计算合作厂商,每类厂商有哪些点。 前文说的为何要引凤,如何算筑巢。当厂商看到商机肯合作时,我们要掌握各类厂商的点才能心里有数。 第一类是大型厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业厂商,他们一般是靠技术优势和态度从大型企手里抢单子。地方政企和这类企业合作时有很强的议价能力,注意不要盲目倾向技术优先的创业厂商,而是选择态度和执行能力好的创业厂商。地方政企很难确切搞懂厂商的技术有哪些优势,而项目的推进落地都是要靠厂商来执行的。 第三类是外企厂商,这类厂商是被广阔的中国市场吸引过来的,也有兼顾外企中国分部的客户。
s****d 2018-07-11
亿元级用户分析
1.上目的分析 大型用户上的宏观目的和普通用户类似,但多角色多部门的利益诉求非常复杂。 降低成本:客户最直观的诉求,或者削减IT预算,或者同等预算下支撑更多的;其他客户诉求都难以清晰描述,唯独成本可以看发票和合同。 明确责任:客户不想承担各个IT系统的衔接和选型责任,相比软件厂商和系统集成商,厂商的责任覆盖范围会更广泛一些。 收拢数据:上本身并不碰业数据,但上是很好明确业数据存储位置的机会,上改造是规范数据结构的理由。 求新图变:企业客户在气势如虹时要居安思危,在困境危难之中穷极思变,IT技术是企业的潜在增长点甚至退路。 本文讨论的是有糊度和利润空间的计算项目,CDN和IDC资源可以用做计收载体,但不能做为上目的分析。亿元以上的器、CDN的订单很多但既技巧也利润,这些资源厂商也在跟厂商学习如何包装项目。 2.客户角色利益分析 大企业多角色之间的利益诉求不同,所以表现形式也不同。我将客户三大角色列出来讨论,销售-售前-项目经理铁三角组合明确客户的诉求,才更好游刃有余的客户。
雪****魁 2018-07-11
危险背后的机遇--故障危机分析
前言 计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS就跟用IDC一样,用谁家的就知道谁家有故障,用一家就知道一家的短处才是正常,只有前一个厂商烂到可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS故障的表层现象和深层原因,客户知道的短板才好做系统设计,厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS和IaaS的设计实现思路完不同,不在本文讨论范围内。 客户的感知和建议 IaaS的核心资源是主机,其他IaaS资源都是依附于主机的;主机的可靠性略高于物理机,但并不是主机永不宕机。 只要主机采购量稍微上规主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。平台都会有网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例部部署在同一物理机房的程序块即为单点。 问题:单点所在机房或单点自身发生故障时,法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也法使得恢复正常。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
干货概览 业部署(熟称上线)是运维领域最常见的业类型,主要涉及线上代码变更、配置文件变更(数据变更由于其高频、大量的点,我们已在数据传输文章《嗖的一下,让数据自动生效》中专门讨论过)。一般的业上线具有不定时操作、业部署情况复杂、单机启停策略复杂等点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由上线变更触发,如何减少变更过程中人为误操作,提供一个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了一键上线部署系统——Archer。Archer致力于提供一产品线过程的可迁移发布解决方案,实现一键完成机器初始化、部署、添加块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起一次上线的操作入口,这种设计式也决定了其易于集成的点。在DevOps流水线作业中,Archer可以作为一个环节结合进整条测试发布流水线中。
m****t 2018-07-11
设计中立公有管平台
我一直不理解Nova和Swift如何从业上联动,做虚拟机时跟客户解释买虚拟机不关心OSS,做对象存储时解释OSS和其他平台没什么好混合的。厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过管平台直接采购,客户一年可能只节省几十块钱。管平台要集成OSS和CDN时,一定要注意这两个是没有区域概念的,比如客户用了百度北京的虚拟机加上七牛浙江的存储和阿里国的CDN,此时客户业绝对跑的通,三方互通有额外网络开销。管平台的资源创建和计费系统都要考虑清楚,尽量资源走一个供应商,或要求不同供应商之间相互免费。 上述PaaS资源都有一个点,可以按照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文一些更专业(偏门)的。 容器入门门槛太高,在中客户场景下缺乏成功案例,如果没有具体项目要求上容器,就等到接完上面的PaaS再考虑接入容器
流****水 2018-07-11
企业级运维平台——NoahEE
一图胜千言,我们看看资产管理的点: 图3 资产管理 部署管理 应用部署一直是运维工作中的重点,一般来说,我们面临的问题有: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行流量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,实际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理块通过“分级发布”来解决。在部署管理块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作等,在部署的过程中发现问题即可暂停并回滚至之前的状态。除了部署等操作,部署管理块还提供了批量执行命令等操作(比如批量启停某一)。如图来总结部署系统的能力: 图4 部署管理 监控管理 在任何工作里,信息掌握的面与否往往关乎到工作的成败。“知己知彼百战不殆”这句话说的就是这个道理。运维工作中,监控系统就是这个让我们做到这点的关键。软硬件是否工作正常,出了问题是否能及时发现与报警,甚至是对异常事件等进行提前预测,都仰仗监控系统。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
l****m 2018-07-10
五年前的预言——2012年计算时代的运维职位展望
2、进行计算器维护;几大供应商自己也要维护器,那些大中型企业肯定会自己做私有,在这个计算平台里也是需要运维人员进行从低端监控到高端架构的一系列维护工作,但自动化运维技术会让运维人员的数量大大减少,可能每个公司都只有一两个团队了。 3、进传统行业继续做运维;笔者就是在一个通讯公司工作,我可以很乐观的说计算会对公司造成有限的技术革新,比如说实现OS的虚拟化。我们需要的SIP必须亲自搭建,阿里盛大新浪都没得卖,甚至因为硬件和网络限制让我们很难使用虚拟机;而外宣网站一类的东西根本不是我们的核心竞争力,能用就好效率低一些没关系。除了通讯公司之外,生产领域(比如管理生产线)也有类似的顾虑,计算的优势和公司的业需求完不沾边,所以这类公司的运维可能会是最后的运维。大家工作的时候都习惯网站相关的工作,但你学过Web就一定要网站工作是挺蠢的行为,危邦不入乱邦不居,最好不要涉足一个没有前途的行业。
小****园 2018-07-10
让PB级存储不再神秘
有了方便迁移这个性,存储平台有什么让你不爽的,直接迁走。 2、中型用户三思后行 GB级用户不在意的坑,TB级用户部要踩一遍;而TB级客户在面对繁杂市场宣传,很难看透存储的本质内容。对象存储都是用API接口调用,普通用户看不到也不关心群集规和技术细节。大家读完本文以后可以更理性和警惕的评估存储供应商。 首先说数据持久性和安性不用太关心。存储厂商都宣称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还了; 平台说自己能到多少个9,我们都笑笑就好,故障出来了平台总能到理由的。你买最贵的EMC存储柜也不能保证100%不丢数据,怕丢数据要设计备份方案而不是寄希望于单一硬件或。 TB级用户同样不用太关心存储群集的性能,因为你是用HTTP协议访问一个广域网,广域网和客户端才是网络吞吐性能的瓶颈。几家存储厂商在SLA里都没承诺速率,上行带宽本来就免费,而下行带宽都会走CDN。但是这类客户已经出现迁移困难了,假设你有200T数据要从某迁到自己机房,如果你的迁移用IDC带宽是1000M需要20天才能完成任
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
第二天 工程师们说:“这个系统必须运行稳定,性能卓越,支持跨平台(Linux、Windows、ARM)安装,要做到同时管理上万台器,一点儿都不慌”。 第三天 工程师们说:“这个系统不能像瑞士军刀,而应该重剑锋、大巧不工,仅支持基础设施的维护管理,要能做到快速扩缩容!出现问题能立刻回滚,保障环境的安和稳定。” 第四天 工程师们说:“这个系统还要做到‘麻雀虽,五脏俱’!要为基础设施提供虚拟化容器隔离,应用部署,应用拓扑搭建和集群控制的功能。为应用的整个生命周期保驾护航,提供一条龙。” 总之就是四个字,“轻”、“稳”、“专”、“”,对于这一切,工程师们很满意。 于是百度的工程师们结合百度历年来计算的经验与技术沉淀,潜心打磨,匠心打造,最终强势推出新一代私有基础设施管理引擎HALO。 Q:HALO是什么?
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
f****8 2018-07-10
2018年计算行业展望
被资本催熟的业普遍都会早衰,团购大战、外卖大战、打车大战都让我们看到了资本抛弃业的速度极快,三年后计算不能拿来给资本画饼了,一些只能烧钱的计算公司都会被合并和售卖。 但计算本质上是企业,并不会出现一家通吃的情况,那些能够自给自足的计算公司,完可以像韩遂、公孙康、孟获一样割据几十年。当Oracle在数据库领域雄霸天下的时候,DB2、SqlServer、Mysql、Mongodb只是挣得没那么舒而已,他们并没有被挤死,类似的例子还有企业级操作系统软件、企业级咨询、企业级硬件供应商等等。计算是企业,企业从未出现过一家通吃的先例,拿个人互联网用户的习惯到企业客户身上是不科学的。 二、一个行业半个IT界 计算行业的梦想上限是替换掉整个IT行业中所有的后端环节,整个IT业一半的产值都会归属到计算公司。 什么叫“所有的后端环节”,就是除了直面客户、直面业逻辑的那一部分工作之外,其他的环节部融入计算平台之中。 旧的IT势力在享受行业的自然增长,优质IDC仍然供不应求,工程师们仍然很好工作。
k****0 2018-07-09
使用Python SDK开发语录类技能
此技能板是针对语录类技能设计的板,如海贼王语录,游戏语录等。本文从技能交互、部署讲述如何快速搭建海贼王语录技能。 语录类技能板的交互型 语录类技能跟用户的交互很简单。用户说“来一个”,技能从语录列表中选取一条读给用户,用户可以继续说“来一个”继续听语录,或者说“退出”以结束交互。 使用板开发技能的流程 新建技能 新建技能详情请参阅自定义技能创建 配置意图 意图配置详情请参阅意图、常用表达和槽位 语录类技能板需要创建“获取语录”意图。获取语录意图如下图所示: 配置技能部署 语录类技能板使用CFC部署技能。使用CFC部署技能详情请参阅 百度CFC 修改CFC函数代码 开发者通过板创建函数以后,可在线编辑函数。
嘟****y 2018-07-11
大型企业适用的平台账户体系
这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。但用过去管理虚拟机的经验,管理IaaS和PaaS时要有资源池隔离,不同部门和项目的主机资源要分别计费和管理。 一个很常见的场景是,人事部的OA系统申请了15万主机费用,生产车间的ERP和销售部的CRM系统不设上限,外部客户A项目预算是50万,B项目是200万,等等等等。 如果没有资源池的概念,就是一个账户管所有资源的“大通铺”式,客户要把脚趾头都掰完了才能算清各项目的消费金额;万一平台调整了资源价格,较真的客户又要从头重算一次。 这个“大通铺”最尴尬的不是计费繁琐,而是一个账户下所有资源毫权限隔离,客户或者只有一个人去登录平台,或者将不同业注册完孤立的账户。互联网公司法理解传统企业和自然人有关的流程是多沉重,客户选一个平台管理员完成所有操作,客户的项目越多管理员员就越晕越累。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。 如果是BIOS启动,做为一个老古董它只能会去读MBR,MBR去读取GRUB;而UEFI略过MBR,直接读取GRUB。 BIOS将启动权限交给MBR的446字节,而446字节连Linux启动界面的logo都装不下,MBR也只是个搬运工,会将启动权限交给GRUB。 遇到过几次倒霉事以后,我习惯用dd备份每台器的前512字节,但自从我做完备份以后,就再也没倒霉过。 4.GRUB引导启动vmlinuz内核。 GRUB2如果细说有stage1、stage1.5、stage2多个步骤,我们可以简单认为前面两步是为了苟到stage2加载为止。 我们用GRUB来选定要加载的内核,并向其传递大量启动参数,这样就可以在多OS、多Kernel、多runlevel之间来回切换。网上的GRUB调试教程都集中在这一步,我们还可以直接传参以单用户式启动,直接密码登陆器。 有些人习惯给/boot一个128M的分区,可能是老师的老师说过这样比较“安”。
无****禾 2018-07-11
客户需求引导管理--实战型IT太极拳
他自己搭出来的免费邮箱会天天有人挑刺说不满意,而他买商业方案以后,谁有意见谁就去老板请款买新块,反而落个清静。 我们并不介入用户内部管理问题,但我们要把客户变成朋友,而不是做一个冷脸旁观的衙门。 4.推进业的能力 论是个人技术革新业绩,团队节省成本业绩,还是内部工作流改善,甚至对外能力优化,都是帮推进客户的业,帮客户出政绩。 客户很容易会异想天开,我现在更多是说他们的想法达不到出政绩的目的,大鸣大放后黯然收场,对客户也不是好事。 传统IT企业在198X年成功崛起,是因为他们的技术帮客户延伸了业能力,比如用ATM机帮银行拓展柜台、用更好的技术算账和转账;最近十几年则只能靠拿软硬件升级来从客户手里钱,上那些IT系统只是保命续命却诞生不了新生命。 希望厂商能够引以为鉴,我也在摸索如何帮客户真正意义上推进业。 人员需求 客户需求不能靠谦卑的态度来引导,而是可靠IT技能方案的输出。这对方案推进者,也就是解决方案架构师的个人素质要求非常高。技术上要可以取信于客户技术团队,又要非常了解产品,还要认可企业级IT式,这才有可能胜任这项工作,让客户的消费额上千万甚至上亿。
林****颖 2018-07-10
中国计算现状——成本篇
厂商基本都是一个13安电机柜每月花四五千块钱;大型厂商都是自营利润IDC、整柜器、高效散热系统,虽然节能效率有夸大吹嘘的成分,但成本是远低于厂商的。 3、网络成本 网络成本包含IP和带宽,租一段IP不贵,但是可能有钱也买不到几万个IP。带宽是计算运营的硬成本,大厂商的集采压价优势同样明显,而且大厂商还可以拉很多对等互联网络节省资费。此外还有还有DDOS问题、IP段被污染问题、ICP备案问题也在提高网络成本。 4、闲置成本 巨大的采购体量必然会造成极大的资源闲置,假设我一次采购上架200柜器,那就要售出5万台虚拟机才能充分利用硬件。硬件从上架之时就在不停的折旧,但虚拟机能卖多快却不好预估;而你可以随时上线200个机柜,那就代表机柜和网络也留了很多富裕。 理论上来说,大厂商规大,留作富裕闲置的百分比会一些,厂商规,留作富裕闲置的百分比会大一些。但以前从未有过需要机柜带宽加器一起做规划预估的情况,大厂商的资源估算人员未必估的够准确,不会是资源紧绷到过度超卖,就是大水漫灌一样的浪费;而厂商的客户固定估算简单,就算资源不足也不是大新闻。
TOP