关于 骗子19112382170坑两千没服务郁池 的搜索结果,共722
s****d 2018-07-11
亿元级云用户分析
硬件和系统管理——硬件是标准还是特配、产权是租是卖、内网代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域网联通方案——云厂商大都是互联网出身,他们拥有DDOS的资源和统一前端的实践经验,还有海量廉价优质带宽。限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户预算精力就盲目信任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都定义。 版本发布和数字化转型——无论是微观的版本发布还是宏观的数字化转型,其实都和上云直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引一把火苗出来。
h****e 2018-07-10
程序:我从哪里来?
作为一个底层的基础,BNS系统每天的访问量近亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行或实例信息注册。为了保证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下个功能: 流量鉴权:每一个组、单元、实例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。 配额限流:针对产品线、用户、IP提供一定的配额,当请求的数量超过配额,就会拒绝响应的请求,并提示用户Quota超限。 2Web Server Web Server提供用户进行各类BNS变更的接口,承担了BNS系统的大部分写入流量,采用分布式多地域的部署方式,可以避免单实例、单机房的故障对可用性造成的影响。 3存储层 这里主要包含数据库和Cache层个部分。 数据库:采用MySQL存储,采用主从集群部署、读写分离的方式。
M****点 2018-07-10
中国云计算现状——产品篇
混合云就是用专线打通朵云,或者让物理机和虚拟机内网互通。肯定有读者怪我认识浅薄,但是云内资源调度都做不好的用户,怎么能做好跨云的资源调度。 既然谈到了混合云,肯定就要谈云管平台,云管平台不是伪需求而是新需求。当客户的非CDN云资源采购金额过500万以后,其项目之间有内网互通的需求,这时候该做一个跨厂商的云端资源管理方案了。现在虚拟机不能像CDN一样随意迁移,但未来Serverless崛起,计算能力也会在多厂商之间漂移的。客户提前把云管平台从计费和权限层面做好,至少在项目级别可以和多个厂商侃价,还能模糊计费相关业数据。 五、企业IT咨询和实施 前面的云计算都免不了卖资源或者卖软件,搞IT咨询和实施可以让公司增加企业的融资概念和收入构成。中小型云厂商都尝试转型做这类工作避开成本搏杀,大厂商嘴上说不要眼神也很诚实。但具体参与过程中,这类工作很少有成功案例,我做成功过这类项目感慨也很深,本段落重点解释这些现象并给出建议。 先说IT咨询,过去云计算平台吸引到的都是成本敏感的游戏客户或者技术优先的创业客户,这类客户都不会为一小时一元的咨询付费。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下有个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定小于新时间t2,新时间t2也小于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
追****圣 2018-07-11
给书记省长讲清楚云计算
云基地通俗易懂的展现形式就是开启数十万个高速运转的电脑铁皮箱,但这些电脑不用接显示器也不用人员现场操作,只要这些电脑能开机能上网就能对外。云基地和数字地产不完全相同,数字地产只装修好房,云基地关注用这些房做什么。 云基地是无烟工业,并不需要雇佣大量人口,对直接促进就业帮助不大;但云计算有实体矿产投入和物品产出,只需要大量电力启动电脑也不会产生大量污染。 云基地像电视台和信号塔一样,通过产生和扩散数据信息对客户提供,这些信息的传输有物流成本,光速直达全球每个角落。 因为云基地全球客户,所以云基地可创造极高的营收,但不能简单的计入地方政府的GDP。一个耗电三瓦的机柜加附属空间占地5平方米,如果云计算资源全部售出,每年可产生20万元以上的营收。但是这些营收会计入云计算公司所在地,而非云基地机房所在地,云基地只能被当做外地公司在本地租赁的库房,只会在所在地消费掉地租、电费和网费。各地政府只有提供足够的优惠政策,才能吸引云计算公司在当地成立独立税核算的分支机构;有长久规划的地方政府甚至可以将云计算人才逐步引入当地,形成高科技硅谷园区。
w****0 2018-07-11
单机房故障自愈-黎明之战
要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更大范围的影响。 要求:容量建设需要对于每个逻辑单元都要有明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要保证变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要有提前的预估,为重大事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以实现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。 单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
前言 沙龙的镳局已改成客栈。东方的大梦不醒了。----老舍《断魂枪》 云计算大潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还有更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变大,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择信任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 有个客户非常信任某个小云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该小云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的信任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让信赖你的客户受伤又受
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信任度下降、给竞品占领市场机会等。 单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设施故障:物理机房故障、网络链路拥塞、流量转发基础设施故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24小时值班,接收大量的报警,随时准备在紧急情况下进行响应、决策、操作一系列故障止损动作,尽量挽回损失,降低故障影响。 但上述解决方案会面临如下问题: 响应可能不够迅速:例如夜间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
然后我就发现来到了暴怒战场,客户的需求同事们都承诺下来了,但一年半载都人做。我闲不住就开始救火,客户有十个要求我会拒绝七个,个慢慢做,一个承诺立刻解决。客户并有投诉我,倒是离职的时候多个客户邀请面谈并发出了Offer。 这几年我一直把“客户提十个需求我会拒掉七个”当做招牌技能,今天就聊聊客户需求为什么要引导,该如何引导。 云平台卖的都是,靠销售体系打下单来只是万里长征第一步。如果云厂商做不好,公有云有消费额,私有云可以换别人家的软件授权;如果云厂商做好大客户的技术,完全可以从备胎公有云变为主力公有云,私有云群集也月月有扩容。各位投标中标的CDN厂商已经领教过客户的切量神功了,而云主机等资源的切换也会越来越简单方便。 过去的案例 我们先看四个生产环境案例。 案例1.有外售型私有云客户要把虚拟机的内网带宽从1G扩充到4G,沟通后发现是最终用户要在单虚拟机上跑大流量应用。我就劝客户技术工程师,网卡改QoS不难,但宿主机网卡才10G,你们是愿意一台物理机只跑台虚拟机,还是愿意停机扩容物理网卡。
小****园 2018-07-10
让PB级云存储不再神秘
大部分器拆了硬盘后价格低于万元,有任何吞金怪兽级硬件。 分布式系统网络IO最珍贵,但为省钱我更愿意用几根兆线做Bond。 只做入门常识级系统优化,用专用文件系统也写裸设备,据说每个节点有50%的性能优化余地。 整体结构可以简化到不需要画架构图的地步,群集有几十个功能项,你想合并成几个也行,想分成几十个进程也对。 因为有超高的容错性,所以群集自协商机制比较简单,嗯,应该说是简陋。 我们不买高配器,因为我们的技术是做公有云过来的,公有云定价不看成本只看友商的价格,合理花钱才能生存下去持续;我们不做单点极限性能优化,那是招不到架构师才走的歪路。这是最有性价比最实的架构方案,我们练得是一招致命的杀敌功夫,不是翩若惊鸿的表演性武术。 一个基于http对象存储的架构场景有三个主要角色:读写代理、元数据、存储。 读写代理,客户端直接访问的Web server,它不存数据只是代理。 元数据,客户可见的Metadata信息和不可见的Filehandle等信息都在这里。 存储,实际数据落盘在这些器上,有不同的存储形式。 此外还有些辅助角色,简单列一下但不细聊了。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
供应商用“认证”“审核”这类词跟甲方说话就是态度不端正,这又是一句“客户你好,你要从管理,爱审不审,不审就滚”。这类甲方的身份资料是公开的,也不会恶意赖账,这时应该由乙方主动记录合规信息,后台透明完成功能开通,设置消费和透支上限。 假设客户是成长型公司,以前CEO创建的账户让员工继续使用。某天CEO被老婆打了一顿,因为他的网购记录有给“丽丽”订花和开房;或者网警约谈该倒霉蛋,警告他不要用网盘传播非法视频;也可能CEO打开聊天工具,发现自己很多幼稚鸡汤文给投资商。不要误会是有人要整这个CEO,SSO单点登录多项,同事用混了账户也正常。 如果客户放弃使用某云之后,原账户不注销滚动欠费几万怎么办?云巨头们都是横向一体化经营,搞不好会和客户有竞争,霸王注册条款下的法风险确实存在。 一个企业的账户不应该由客户注册,而是供应商主动提供,像IDC和CDN就会主动给客户提供查带宽的账户。这个账户只是为了让客户低成本的获取,不包含客户给供应商的任何承诺,双方的权利义要看商合同。 第二.账户内资源隔离 企业客户尽量会将资源集中采购,在采购IDC/CDN这类简单时不用担心资源混淆。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
布****五 2018-07-10
如何执行一条命令
如果将这三要素限定在器上,它们又是如何运作的呢? 图1 windows与linux下的命令 命令内容(令) 无论是windows还是linux操作系统,都会提供相应的CLI(不要吐槽windows的CLI难用),供使用者交互执行命令或运行批处理脚本。仔细观察,所有命令行都有一个相同的特点:固定词+选项+参数,无出其右。因CLI伴随着操作系统的诞生,且命令行处理又是一个复杂但相似的过程,因此各种语言也都提供了相应的库支持,如C语言提供了getopt/getopt_long等函数,C++的boost提供了Options库,shell中处理此事的是getopts和getopt。 命令传递(发) 命令传递有种方式,一种是文件形式,将bat/shell脚本上传到器然后执行。另外一种就是交互式,通过telnet/ssh等方式远程连接器后,直接在命令行界面执行。虽然从形式上我们将命令传递分为了种方式,但从本质上来说,器上的命令传递,都有逃脱网络传输这个过程。 命令执行(使) 对于操作系统来说,命令的执行,其实就是启动一个进程并传递相应的参数,运行完成后得到相应的结果。
TOP