关于 小妹SPA会所 78792796薇V号原平市保健足浴按摩服务上 的搜索结果,共1262
追****圣 2018-07-11
给书记省长讲清楚云计算
因为云基地全球客户,以云基地可创造极高的营收,但不能简单的计入地方政府的GDP。一个耗电三千瓦的机柜加附属空间占地5方米,如果云计算资源全部售出,每年可产生20万元以的营收。但是这些营收计入云计算公司在地,而非云基地机房在地,云基地只能被当做外地公司在本地租赁的库房,只在地消费掉地租、电费和网费。各地政府只有提供够的优惠政策,才能吸引云计算公司在当地成立独立税核算的分支机构;有长久规划的地方政府甚至可以将云计算人才逐步引入当地,形成高科技硅谷园区。 大型国企要做云计算的主要问题是缺乏人才,在私企做云计算的收入是国企的3倍以,国企很难证核心员工不流失。国企如何收罗高薪互联网人才这个问题,可能不是靠几个户口指标能解决的。 无论是合作运营还是仅仅采购建仓库,云基地都需要用到数据中心、网络接入、电力接入和器这几块资源,中大型云基地每年的采购金额在亿元左右。 做云计算要满哪些条件,如何才能筑巢引凤。 云计算是一个重资产投入长期产出的项目,各地政企也没有独立安装和售卖云的能力,如要引凤先需筑巢,要做出可靠的云计算项目,必须有如下硬性资源。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往走的软件质量还不如XXXX,此处省略一万五千字,客户自己揣吧。 厂商深层因 厂商报故障就跟滚刀肉挨揍一样,脸疼了就把屁股凑过来,屁股疼了就捏捏脸,一般不住一只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心里要有秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不墙,故障的性质对长久的品质很重要。 我列一下潜在的故障因,哪些故障能忍,哪些故障不能忍,这些要云客户自己评估了。 技术因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没有特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确实客户要自认倒霉,因为友商也遇到同样问题。 现在容易出问题的是云台的运营维护和云厂商的自定义管理模块,客户就是缺合格运维才被逼的云台,但云厂商自己也缺人;在软件BUG这一部分我已经吐槽过做云台外延模块程序员的技能水了。这些地方出了问题该投诉投诉、该索赔索赔,逼着客户去招更敬业专业的工程师。
h****e 2018-07-10
程序:我从哪里来?
Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS实例的康检查功能,用户通过在Web页面对每一个实例配置康检查的方式,机器的Check Agent主动探测有实例的运行状况,并将康检查的结果报给Cache层,同时更新数据库内容。 总结 BNS系统满间交互中常见的的资源定位、IP白名单维护等需求,也可以用于机器列表查询,使用场景包括机器列表查询、定位、白名单维护、数据库智能授权等,解决了程序“我是谁?我从哪里来?该往哪里去?”的问题。 今天我们一起聊了百度云Noah智能运维产品中的BNS系统,目前系统还在持续迭代和优化中,若您想进一步了解BNS问题,欢迎大家积极留言。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能资源付费更便宜(也可能更贵),而PaaS台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云台和IaaS云资源的区别就在于,台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
嘟****y 2018-07-11
大型企业适用的云台账户体系
将不同业区分为不同账户也解决不了问题,因为客户和云台都要将这批账户统一管理,但实际扣费进度总超出意外,项目欠费停机或者追加预算,挨骂受累的都是台管理员。 现在越来越多的云让客户账户下创建多个权限和访问隔离的资源组,不同的资源组各自做用量统计和配额限,逐步解决了管理员侧的资源隔离和计费问题。 ##有的把这些资源组叫做“资源子账户”,但这和下文的权限子账户有名称混淆,本文是将其称为资源池或者资源组。 第三.多账户权限隔离 相关用户在云台要有自己的子账户,这样才好记录操作日志和做权限控制。 首先要证这些子账户不能用于登陆到公司的其他业线,特别是个人业线,这也是子账户研发一直滞后的重要因。 最简单的子账户是管理员手动创建账户密码,但这有弱密码和员工离职问题;简洁方案就是管理员手工创建子账户,但密码验证由客户的企业AD做Keberos认证来完成;最复杂对接即将AD的账户体系(含用户注释和分组信息)完整引入云台,但云台管理是众需求,AD管理员一般不是合适的云台管理员,这个功能要斟酌。
w****0 2018-07-11
单机房故障自愈-黎明之战
对于单机房止损场景来说,DNS流量调度的生效时间较层、依赖层的流量调度生效时间要慢很多,以我们期望在发生某个业的局部单机房故障时,优先进行层、依赖层调度。提升止损时效性。 在单机房容灾能力、智能监控台、流量调度台的基础,启动单机房故障自愈工作的时机已经成熟。我们将在下篇文章中详细介绍单机房故障自愈解决方案,敬请期待! 单机房故障机器人止损方法 单机房故障止损的能力标准 单机房故障自愈的常见问题 单机房故障自愈的解决方案
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD装NTPD又没有装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联网公司和亿国家级项目里用ntpdate+crond,一代架构师为什么有这个误无人深究,下一代人将误固化为偏见,新一代人将偏见神化为迷信。 但无论误、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业安全性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见微知著和防微杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑一下如何规避这类误?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
m****t 2018-07-11
设计中立公有云云管
云管台可选接入厂商型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的。这其实挺尴尬的,理论来说即使是内存缓存型也有双活机制,但是厂商PaaS的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年一遇,大都是“只考虑人品”的。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看过很低可靠性的,也听朋友说过本厂的RDS可靠性远超普通DBA;但RDS对客户只暴露一个接口,我们不知道厂商给主库磁盘做没做RAID,也不知道主从库在同一个物理机。以前文中我对中客户用PaaS当做节省自己搭建的人力,对大型重型PaaS需求建议个案处理,因为各厂商通用的百倍赔偿根本就是个免责条款。 对象存储(OSS)和CDN。我一直不理解Nova和Swift如何从业联动,做虚拟机时跟客户解释买虚拟机不关心OSS,做对象存储时解释OSS和其他云台没什么好混合的。
p****d 2018-07-11
单机房故障自愈--运维的春天
安全水位线:流量处于在安全线以下则风险较,可以一步进行切换。 水位限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率导致容量过载。 如果安全水位线提供的容量不以满止损,那我们期望使用两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。 基于降级功能的过载护 在流量调度前,如果已经出现对应机房的容量过载情况,则动态联动对应机房的降级功能,实现故障的恢复。 2业线止损策略需求差异大 【问题描述】 我们实现了基础的单机房故障流量调度止损算法,但在部分业线中仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的情况,过程中能力降低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个游,多个游的重要程度不同,优先证重要稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。
s****d 2018-07-11
亿元级云用户分析
资源持续--亿元大客户不要求云台永不故障,但要云台承诺清晰SLA,事后给个合理的故障报告。 后记 如我在《复制阿里云并不难》中说的,一个云行业半个IT界”,云行业将垄断IT界一半的营收和利润。本文讨论的亿元大项目,目标就是拿下IT圈的营收限。现在亿元大单都是云厂商在侵入系统集成商的势力范围,后面云厂商得到越来越多的亿元大单。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
云计算历经多年发展,从最初的概念模型,到被大众熟知,再到现在全行业拥抱云,取得了巨大的进步。云的主要客户已从最初的中初创公司逐步渗透到各行各业的大型企业。可以说,企业云已是企业发展的必由之路。部分数据敏感的企业结合自身数据的安全性、有权和控制权等综合因素考虑,选择搭建自己的私有云或者混合云环境。 但是在述环境中,用户的机器都需要自行管理,这就必然给云运维人员带来很多意想不到的麻烦。 其实我们面临的问题从来就没有什么大的变化,唯一不同的只是机器规模越来越大,人心越来越复杂。 Q如何在1台机器部署基础设施?A 一切都源于那个亘古不变的道理:扔一个文件到机器,然后跑一个命令。 Q如何在10台机器部署基础设施?A 写个for循环搞定。 Q如何在10000台机器部署基础设施?A 这个也好办!定制操作系统镜像CUSTOM.iso装机自动化安装! then…… Q如何快速升级有机器的基础设施? Q因异常挂掉,能自动重启活吗? Q公司做活动,预计流量突增,能扩容吗? Q公司活动结束,为节约成本,能缩容吗? Q新开发的基础设施有问题,能立马回滚吗?
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信任度下降、给竞品占领场机等。 单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设施故障:物理机房故障、网络链路拥塞、流量转发基础设施故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24时值班,接收大量的报警,随时准备在紧急情况下进行响应、决策、操作一系列故障止损动作,尽量挽回损失,降低故障影响。 但述解决方案面临如下问题: 响应可能不够迅速:例如夜间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。
林****颖 2018-07-10
中国云计算现状——成本篇
文说到一些普通销售靠公司分配商机,也和强大的场引流(烧钱)能力有很大关系,只要产品过硬多参总是不亏的。 综合评估 综述,前三条成本都是大厂商对比厂商占据绝对优势,但大厂商之间的成本区别并不大,因为硬件降价折扣是有底线,全国能拿到便宜器、机柜和带宽的厂商肯定超过十家了。企业客户是理性选择供应商,并不盲目黏在一个台不走,而各厂的技术差距早晚是能追的,后入场的大玩家一样有插分羹的机厂商的机集中在如何避免同大厂商在前三条正面竞争,少丢分或不丢分,然后在后三条发力破局。首先,天使和A轮的厂商,创始人大都是业内知名人士。BCD轮的厂商抢人的姿势超级凶残,烧点工资快速刷出产品线和销售额,VC也很开心。厂商可以持灵活的身姿、手握精兵团队,而大厂商因为决策链太长,庸才冗吏太多,后三条很容易丢分。 厂商并非毫无胜算,甚至活的比过去更好,因为大厂商在完成培育场教育客户的工作,厂商在现状下可选的策略非常多,我简要描述一下。 1、厂商可以做私有云,硬件机柜和带宽成本让客户来承担。
小****园 2018-07-10
让PB级云存储不再神秘
当前存储厂商是需付费定期调价,短周期看大家都是在不计成本的降价获取客户,但长周期看寡头形成竞争淡化,存储涨价是合法商业行为,而你数据量大且深度耦合台业很难搬走。企业场没有免费蛋糕,我们要适当考虑超低价的风险。 (2)云端处理和分发能力。 当你的数据量到TB以后,单台器已经无法承载和处理这些数据了,你需要尽量借助云存储台的处理和分发能力。我本来以为这些功能大家都台都有,但试读者反馈还是建议我加这一段。 云存储直接处理数据都是这样一个形态:文件输入来自于云存储,参数输入来自于客户的get和post请求,在云端做一些无状态处理,文件可以下载或存储到云存储,参数输出或者接口回调。常见的例子是图片实时打水印有损压缩后下载,视频异步转码另存,涉广告图片检查后返回特征码,日志文件检索特定字段,文件自定义加密解密等等。这些使用方便收费低廉,甚至在改变有的开发模式,成为存储必备的核心功能点,但是这些使用过程中坑不断。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水复制扩容,在网站类应用,无状态-持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更大更难控制。 实时改异步是我学的最后一门IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作给支撑带来巨大压力,Peer合作的实时操作可能让数据申请方等一宿。架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不而损有余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都带来细节的万千变化,但每种变化都是符合自然规律有章可循的。 一个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
TOP