关于 会中彩票 zs25.vip 主管Q:86_355_347通bl 的搜索结果,共884
m****t 2018-07-11
设计立公有云云平台
以Mongodb为例,客户端连接多个mongos和mongod,客户端旁观服务端选举和切换节点,不依赖虚拟IP就实现应用层高可用和负载均衡。云平台可选接入厂商服务满足小型客户需求,毕竟不用自己做服务维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的服务。这其实挺尴尬的,理论上来说即使是内存缓存型服务也有双活机制,但是厂商PaaS服务的后台架构完全是黑盒,没出故障时都是专业架构,出故障了都是百年一遇,大都是“只考虑人品”的服务。以RDS为例,不同厂商的RDS可靠性千差万别,我亲眼看过很低可靠性的服务,也听朋友说过本厂的RDS可靠性远超普DBA;但RDS对客户只暴露一个服务接口,我们不知道厂商给库磁盘做没做RAID,也不知道从库在同一个物理机。所以前文我对小客户用PaaS当做节省自己搭建的人力,对大型重型PaaS需求建议个案处理,因为各厂商用的百倍赔偿根本就是个免责条款。 对象存储(OSS)和CDN。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
它屏蔽了云服务底层繁杂的控逻辑,提供简化接口给上层系统NoahEE调用,使上层系统更好更快地释放价值。 Q这么优秀的系统到底是如何实现的呢? AHALO系统采用从架构,分为Master端和Agent端。 Master端要做复杂的任务调度和控逻辑,并且所有功能都是模块化设计,用户可以根据自己的需求定制安装,包括虚拟化容器理,应用包理、部署、扩缩容、拓扑搭建和保活,集群控制等。 Agent端则以简单为原则,弱化繁琐功能,仅作为任务的执行器,其的supervisor组件,结合父子双进程原理,做到自升级和自保活,把云运维人员的工作量降到最低。 整个系统的工作流程也十分简洁优雅!Agent过定期心跳的方式,与Master进行信,在心跳发包发送本机状态信息,在心跳回包获取Master期望的本机状态plan,并把期望plan与本地实际plan进行对比,针对有差异的地方做相应修改,使二者保持一致,从而保证集群所有机器最终状态一致。 总之一句话,一朝HALO在手,从此不用发愁。所有运维需求,直接调用接口。
嘟****y 2018-07-11
大型企业适用的云平台账户体系
单账户大铺模式下,所有的平台短信和邮件都往一个账户发就行了,但现在要重新设计。我的一线技术工作经历并不依赖第三方(如云平台)知机制,对知功能的研究较少,所以我只能提出用性设计建议: a.别把平台维护知当做甩锅知,大客户因此忙到鸡飞狗跳。 b.员工正常操作不要知到理员,自然人收到的信息太多麻木。 c.员工执行摧毁核心资源等高危的操作要及时理员。 d.这些操作日志可以过API等方式对接到企业自身的平台。 e.合规和安全风险发送平台理员和资源池理员。 云平台有知机制就要有理权限,比如说某IP存在合规隐患,理员要能查看和操作该IP;否则平台理员只能组织各部门领导开,平台的理员一般不是公司高,其处理速度和处理效果就很慢也很扰民了。 第五.其他随笔说明 a.过去云平台做计费和权限开发很繁琐,云平台支持精细控制后云平台的对接成本瞬间降低,那些功能缺失又不是行业标杆的云平台平台被逐渐放弃接入。 b.有客户想给不同资源组做不同资源单价,这是个弱需求,该需求技术实现繁琐且有客户可接受的变方法,比如子账户登陆只计量不计价,价格在心
流****水 2018-07-11
度云企业级运维平台——NoahEE
简单的说,服务理要解决的最核心问题就是如何对资源进行有效组织理与定位: 图2 解决规模带来的问题 在服务理这个地基打好后,我们再来回顾下上面的例子。这个例子,地图研发的同学就可以在运维平台导航的模块进行升级,运维平台过服务理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE的所有运维系统,都以服务理为基础来进行运维操作,例如在监控系统,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任务,并在一定条件达成时报警。服务过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产理 在机房里,各种各样的服务器、网络设备和安全设备7x24小时的运转,为我们的业务提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
TOP