关于 〖微855166⑤4〗玉林市按摩妹子上门外围女网红全套保健服务 的搜索结果,共1223
追****圣 2018-07-11
给书记省长讲清楚云计算
如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你有场有客户那对方会主动寻求合作。从长周期来看云计算的客户是覆盖行业的,各地内部采购的计算机项目根本不值一提,场和客户要靠云计算厂商自己去找。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到国。这个窗口期只有三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商有哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里有数。 第一类是大型云厂商,他们自身有很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极小风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手里抢单
h****e 2018-07-10
程序:我从哪里来?
Cache层:是BNS系统自研的一个缓存模块,缓存了量的BNS系统数据,采用多地域部署的方式,它主要功能是降低数据库的查询压力。 4客户端 BNS系统主要包含两个客户端:查询客户端和康检查客户端,我们分别用Naming Agent和Check Agent来代指两个。 客户端部署在所有的机器,并提供命令行工具和丰富的SDK以及各类插件,方便用户在各个场景使用。 Naming Agent:提供BNS的查询功能,用户可以根据一个名字(组、单元、实例)就能得到详细的信息。Naming Agent与Cache层的数据交互,采用推拉结合的方式,Naming Agent主动拉取数据和Cache模块推送变更数据,同时Naming Agent客户端会将查询过的数据置于本地缓存中,以此降低Cache层的查询压力。 Check Agent:提供BNS实例的康检查功能,用户通过在Web页面对每一个实例配置康检查的方式,机器的Check Agent会主动探测所有实例的运行状况,并将康检查的结果报给Cache层,同时更新数据库内容。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
,Archer也可作为托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线故障; 业的多地域部署; 多种络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及不同络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一既灵活又完整的包规范。
w****0 2018-07-11
单机房故障自愈-黎明之战
实现从运营商链路、百度内部络设备/链路、/实例、机器/容器的方位数据采集与监控。满足络类单机房故障、业类单机房故障的监控覆盖需求。 同时提供一系列数据分析方法。如智能异常检测、趋势预测、多维度分析、关联分析、和链路拓扑分析,实现故障的精准发现和定位。 故障止损:百度流量调度平台 针对百度的络架构和业架构,我们将流量调度拆分为三层:接入层、层、依赖层。 接入层:从用户发起请求经过运营商络到百度统一前端(BFE)的过程,使用DNS实现流量调度。 层:从BFE流量转发至内的过程,使用BFE提供的GSLB动态负载均衡进行流量调度。 依赖层:内下游业之间的流量调度过程,使用百度名字(BNS)进行流量调度。 对于单机房止损场景来说,DNS流量调度的生效时间较层、依赖层的流量调度生效时间要慢很多,所以我们期望在发生某个业的局部单机房故障时,优先进行层、依赖层调度。提升止损时效性。 在单机房容灾能力、智能监控平台、流量调度平台的基础,启动单机房故障自愈工作的时机已经成熟。
p****d 2018-07-11
单机房故障自愈--运维的春天
在单机房故障自愈--黎明之战提到的百度络与业架构情况,我们将整体流量调度止损架构拆分为3层:接入层、层、依赖层。 针对这3层的监控感知、止损决策与故障止损方式的不同,将止损自动决策拆分为止损自动决策与内止损自动决策。 止损自动决策:覆盖接入层。基于、内监控信号;触发止损决策器进行止损决策;执行DNS流量调度止损。 内止损自动决策:覆盖层、依赖层。基于内监控、基础监控、业监控提供的故障信号;触发内止损决策器进行止损决策;执行流量调度、主备切换、弹性降级等止损操作。 单机房故障自愈的常见问题和解决方案 传统的流量调度自动止损方案存在如下问题: 1容量风险控制能力不足 【问题描述】 传统流量调度的模式有两种:固定比例模式与容量护模式。 固定比例模式:照预先设定的固定预案,一个机房故障,该机房的流量照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切流量后导致多个机房发生故障。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没有会装LAMP可以拿去吹牛,时间长了NTPD就背黑锅了。 真有TOP10的互联公司和亿国家级项目里用ntpdate+crond,一代架构师为什么有这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用壮性和业性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所有的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,有资格有能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
干货概览 在大型互联公司中,单机房故障因为其故障时间长、影响范大,一直是互联公司运维人员的心头之痛。在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内络环境建设了基于智能流量调度的单机房故障自愈能力。结合运营商链路监测、内链路质量监测与业指标监控构建了方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联公司被披露的故障事件,单机房故障层出不穷。
s****d 2018-07-11
亿元级云用户分析
云厂商提供四类人力资源: 第一类是方案咨询和项目规划,不要被免费通用售前蒙蔽了视野,出彩的规划咨询重度依赖精英人力,既要是云产品专家又要是客户侧IT高手; 第二是平台侧研发运维,即使最标准的CDN也要定制日志接口、调卡顿和回源比,销售铁三角必须最顺畅沟通最高优先级; 第三是项目侧实施人力,云厂商可以做盖机房到App适配的所有工作,客户只想对接一个总包责任人; 第四是客户挖不来留不住“云厂商母公司的顶级技术高手”,他们想借云项目让高手做人力输出,但是……。 读者们不要觉得卖人日很低端,人力资源是难以垄断和模板化复制的;只有不能垄断的行业,精英打工者才有极大的发挥空间。 4.架构和流程变化分析 大型云用户在云过程中,其IT架构逻辑逐步发生着变化,为了避免技术泄密和证通用性,我写的比较简单。 硬件和系统管理——硬件是标准还是特配、产权是租是卖、内代维还是自主设计、器交钥匙还是黑盒——不同的客户项目需求,导致硬件管理和监控不同于传统方案也不同于其他云项目。 广域联通方案——云厂商大都是互联出身,他们拥有DDOS的资源和统一前端的实践经验,还有海量廉价优质带宽。
流****水 2018-07-11
度云企业级运维平台——NoahEE
资产管理 在机房里,各种各样的器、络设备和安设备7x24小时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、架、机架变更,直到设备下架、出库生命周期覆盖,做到所有运维操作记录可追溯。有了资产管理,运维人员可以在器完成入库、架工单后即可在管理中看到该器并进行管理,无须任何其他操作。
M****点 2018-07-10
中国云计算现状——产品篇
OpenStack API可以将卡在主机之间插拔管理,卡从主机附属设备变成了独立资源,内IP的分配职责从系统工程师变成了络工程师,无数被安组恶心过的用户,也逐渐放弃了本机防火墙。这些改变是从络层面践行云计算的设计哲学,单机(IP/防火墙)不重要,云主机就是生生不息的群狼,组织群狼的络更加重要了。 二、PaaS产品 相比同质化竞争主打价格牌的IaaS云,PaaS产品才是云计算的未来。用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。
若****客 2018-07-10
IT架构的本质--我的五点感悟
应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意崩溃都是可以接受的。 支撑性不可靠,对于大部分业,预估一年都不丢一次数据,SLA能到99.95%就可以了。 操作系统故障崩溃,现在商用系统内核都很稳定,一般故障都出在硬件驱动兼容性,或者有些照本宣科的傻瓜乱改默认参数。 络不稳定,内通用的技术方案很成熟,少提复杂需求内就能很稳定,我们最烦的是单条线处于半死不活状态;IDC的SLA默认就是3个9,所以我说支撑性能到99.95%就已经很可靠了。 硬件不稳定,大部分架构师根本不懂硬件,只要不出硬件批次故障,架构师就可以将单点硬件和系统、绑在一起做可靠性设计。 人力误操作,我们招不到不出故障的人,我自己达不到不出错的标准。只要员工没有恶意破坏,出了大范故障就是群集壮性设计不到位,别让操作工给技术总监和架构师顶包。 监控和备份是运维的职责,但架构师需要帮忙确认目的正确性,别备份了半天废数据,监控只看telnet80。 结束语 架构之术繁琐,架构之道浅显 本文讲的是架构工作的“道”,对与架构之“术”并不提及。
无****禾 2018-07-11
云客户需求引导管理--实战型IT太极拳
云平台卖的都是,靠销售体系打下单来只是万里长征第一步。如果云厂商做不好,公有云没有消费额,私有云可以换别人家的软件授权;如果云厂商做好大客户的技术,完可以从备胎公有云变为主力公有云,私有云群集也月月有扩容。各位投标中标的CDN厂商已经领教过客户的切量神功了,而云主机等资源的切换也会越来越简单方便。 过去的案例 我们先看四个生产环境案例。 案例1.有售型私有云客户要把虚拟机的内带宽从1G扩充到4G,沟通后发现是最终用户要在单虚拟机跑大流量应用。我就劝客户技术工程师,卡改QoS不难,但宿主机卡才10G,你们是愿意一台物理机只跑两台虚拟机,还是愿意停机扩容物理卡。客户技术工程师认同让最终用户学采用LB加多台虚拟机,比改QoS和停机加卡更可靠。但最终用户宁愿纠缠客户技术人员也懒得学如何用LB,我给支招说我们的操作人日免费送,但硬件改造成本有20万,问这用户只是想试试还是改完卡就能付费。最后该用户果然只是想试试,我们和客户技术部都躲过一场折腾。 案例2.有个IDC新线一售型私有云,运营负责人第一次操盘公有云心里痒痒,总是提需求但总被我拒绝。
TOP