关于 平凉崆峒区中找妹子服务按摩〖10669708薇信〗 的搜索结果,共863
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
追****圣 2018-07-11
给书记省长讲清楚云计算
进入2000年,无纸化办公、游戏、社交、电商改变了大众的生活的方式,国内从业人员已经远超百万,技术分类有数十种工程师。 在最近的十年,移动互联网兴起,便捷的通、打车、外卖、电支付等功能层出不穷,所有面向个人消费者的行业都在加速互联网化;未来十年里,计算机技术将深刻影响工业生产领域。这时问题出现了,我们需要上千万名工程师吗,我们有这么多工程师吗? 历史总是惊人相似的轮回,在国家决策层面,云计算是个可以和能源、金融相提并论的领域。 第一次工业革命开始时,每一个矿山都安装各自的蒸汽机;第二次工业革命开始时,每一个工厂都要重点解决电力等能源问题;息技术革命开始时每个公司都要有计算机工程师。但百川终到海,发动机能统一标准,电力能源能集供应,云计算台可以实现计算机技术的标准化,凭借规模效应降低成本,让客户直接付费购买息技术,极大减少了客户的人力投入以及衍生的时间和管理成本。 息技术革命的核心工作是息的存储和处理,最重要的资源是数据。
M****点 2018-07-10
国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领头羊企业和事实标准。 PaaS云台和IaaS云资源的别就在于,台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,小量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
嘟****y 2018-07-11
大型企业适用的云台账户体系
将不同业分为不同账户也解决不了问题,因为客户和云台都要将这批账户统一管理,但实际扣费进度总会超出意外,项目欠费停机或者追加预算,挨骂受累的都是台管理员。 现在越来越多的云台会让客户账户下创建多个权限和访问隔离的资源组,不同的资源组会各自做用量统计和配额上限,逐步解决了管理员侧的资源隔离和计费问题。 ##有的台会把这些资源组叫做“资源账户”,但这和下文的权限账户会有名称混淆,本文是将其称为资源池或者资源组。 第三.多账户权限隔离 相关用户在云台要有自己的账户,这样才好记录操作日志和做权限控制。 首先要保证这些账户不能用于登陆到公司的其他业线,特别是个人业线,这也是账户研发一直滞后的重要原因。 最简单的账户是管理员手动创建账户密码,但这有弱密码和员工离职问题;简洁方案就是管理员手工创建账户,但密码验证由客户的企业AD做Keberos认证来完成;最复杂对接即将AD的账户体系(含用户注释和分组息)完整引入云台,但云台管理是小众需求,AD管理员一般不是合适的云台管理员,这个功能要斟酌。
流****水 2018-07-11
度云企业级运维台——NoahEE
简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例。这个例,地图研发的同学就可以在运维导航的模块进行升级,运维台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和安全设备7x24小时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复?
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电接入故障,断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户任度下降、给竞品占领市场机会等。
m****t 2018-07-11
设计立公有云云管
至于渗透测试和漏洞扫描,其实和云没直接关系,没必要纳入云管台。WAF可以参照负载均衡进行设计处理。 物理机和自控超卖比虚拟机,这是部分云厂商才提供的功能,这类资源开销偏大和计费不灵活,客户要给云管台发邮件才能申请到资源,客户日常有类似于虚拟机的管理和监控需求。 云监控是一个基本免费的,对该的设计包含安全评估、数据展示和通知机制。安全评估就是要不要装各厂商以Root权限运行的Agent,数据展示就是各种监控统计表和折线图展示给客户,各厂商是直接通知到最终用户还是通知到云管台后转传递息。 其他,诸如域名、ICP备案、虚拟空间等。 第五核心业系统 已知云管台要管理上述资源,且不同资源的优先级不同、同一个资源也不需要部署所有功能,那云管台自身该如何设计和展示?经过对多个云管台的调研统计,其核心必须的业系统有四个,分别是“管理台”“用户系统”“计费系统”“厂商API封装工作”。这几个业系统都有几个人月就可以做出的简易版核心功能,也可以照大型软件工程去做全功能规划设计。 管理台 这是运营人员使用的的资源统计、展示操作台。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具有固定的标准并且支持定制化,使用Archer进行部署的具有统一的包结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可照单实例、单机房、单地域等级别设置暂停点,并支持部署过程进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件设置配置变量,并在特定地域(机房)生成特定配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据转传输。采用转的上线在发起任后,部分代码将首先被转存至转机上。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择任能有个人商誉,能做出承诺、调动资源和复问题的销售和人员。 有个客户非常任某个小云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该小云快速把业切过来并坐实站住了,这份暗相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
那是在更早的版本GRUB程序读不了GB级磁盘分,没办法加载vmlinuz内核,现在已经只是一个迷而已。 5.内核启动加载驱动,但这还没触及任何业。 不同硬件同一个版本的vmlinuz内核hash值是相同的,因为驱动息放在initrd*.img里。Initrd*.img是一个精简但带了所有驱动的linux镜像,一般系统安装完之后自动生成,也可以事后手动生成。 曾经某偏门软件推荐用集成镜像安装,装完了就是起不来,我把同内核版本、同硬件配置的init*.img替换以后系统就正常启动。 Kernel加载了所有驱动后就会卸载initrd*.img,早期linux版本在系统启动过程还能看到很多“umount filesystem”的提示,那不是卸载正式文件系统,而是卸载了initrd*.img这个迷你系统, 6.Init进程启动,正式启动。 从看到“Welcome use CentOS”的彩色欢迎文字开始,init已经启动了。 在这之前的启动过程也就读取BIOS/MBR/GRUB和/boot分,现在终于开始读/etc目录的配置文件了。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房故障止损覆盖从感知到止损阶段,其感知阶段依赖监控系统的故障发现能力,止损阶段依赖流量调度系统的调度能力。我们来具体看下百度的监控系统与流量调度系统是如何在单机房故障止损场景起作用。 故障发现:百度监控台 百度监控台,针对单机房止损过程的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。同时针对单机房止损依赖的容量管理场景,提供资源类监控采集,为容量规划、扩缩容提供数据支持。实现从运营商外网链路、百度内部网络设备/链路、/实例、机器/容器的全方位数据采集与监控。满足网络类单机房故障、业类单机房故障的监控覆盖需求。 同时提供一系列数据分析方法。如智能异常检测、趋势预测、多维度分析、关联分析、和链路拓扑分析,实现故障的精准发现和定位。 故障止损:百度流量调度台 针对百度的网络架构和业架构,我们将流量调度拆分为三层:接入层、层、依赖层。 接入层:从外网用户发起请求经过运营商网络到百度统一前端(BFE)的过程,使用DNS实现外网流量调度。 层:从BFE流量转发至内网的过程,使用BFE提供的GSLB动态负载均衡进行流量调度。
w****t 2018-07-10
AIOps的四大金刚
在针对运维的场景,会覆盖运维相关的管理、监控、变更、流量调度等相关台。 这部分台是运维的基础,在AIOps时代仍然需要依赖于这些台的建设。 同时在AIOps场景,数据成为了心,运维各种状态息转换为大数据,机器学习则作用在大数据上进行分析。在百度AIOps的实践,运维开发框架、运维知识库、运维策略框架共同组成了完整的智能运维台,三大台的建设和实施离不开大数据、机器学习架构的引入。这就要求台研发工程师具备大数据、机器学习台架构师的多重身份,具备流式计算、分布式存储、机器学习台、算法策略台等一系列大数据和机器学习台架构能力。 运维研发工程师 基于多个业线场景抽象出的单机房故障自愈解决方案,能够满足大部分场景需求,但并不意味着可以直接提供给各个业线来使用。原因如下: 策略和参数需要进行调整 流量调度、容灾策略等策略,针对不同的业线,配置并不相同。例如某些业对响应时间敏感,跨地域的调度会带来较大的延迟,影响用户体验,这时就需要根据业情况配置机房之间的跨机房流量调度延迟系数,来实现流量优先调度到延迟系数最低的机房。
小****园 2018-07-10
让PB级云存储不再神秘
当前存储厂商是需付费定期调价,短周期看大家都是在不计成本的降价获取客户,但长周期看寡头形成竞争会淡化,存储涨价是合法商业行为,而你数据量大且深度耦合台业很难搬走。企业市场没有免费蛋糕,我们要适当考虑超低价的风险。 (2)云端处理和分发能力。 当你的数据量到TB以后,单台器已经无法承载和处理这些数据了,你需要尽量借助云存储台的处理和分发能力。我本来以为这些功能大家都会各台都有,但试读者反馈还是建议我加上这一段。 云存储直接处理数据都是这样一个形态:文件输入来自于云存储,参数输入来自于客户的get和post请求,在云端做一些无状态处理,文件可以下载或存储到云存储,参数输出或者接口回调。常见的例是图片实时打水印有损压缩后下载,视频异步转码另存,涉广告图片检查后返回特征码,日志文件检索特定字段,文件自定义加密解密等等。这些使用方便收费低廉,甚至在改变原有的开发模式,成为存储必备的核心功能点,但是这些使用过程小坑不断。
M****H 2018-07-11
故障定位场景下的数据可视化实践
基于上面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩小故障范围,到故障根因: 全局问题定位:快速确认线上状态,缩小故障判定范围。为可能的止损操作提供判断依据。本文会介绍如何构建一个全景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进一步缩小问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:一些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如上线变更、运营活动导致的故障。本文针对导致故障占比最高的变更上线类故障进行分析,看如何快速到可能导致故障的变更事件。 全景掌控缩小范围 对于一个乃至一条产品线而言,拥有一个布局合理、息丰富的全景监控仪表盘(Dashboard)对于状态全景掌控至关重要,因此在百度智能监控,我们提供了一款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自由灵活的组织仪表盘布局,配置所需要展示的数据息。
TOP