关于 哪里有包夜小妹服务薇78792796上海颛桥叫美女找服务施 的搜索结果,共1403
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 什么,含了些实例,规模、部署情况、实例运行状况如何? 2.我从来? 些,不同的游流量如何分配? 3.我往去? 的下游些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户信任度下降、给竞品占领市场机会等。 单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设故障:物理机房故障、网络链路拥塞、流量转发基础设故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24时值班,接收大量的报警,随时准备在紧急情况下进行响应、决策、操作一系列故障止损动作,尽量挽回损失,降低故障影响。 但述解决方案会面临如下问题: 响应可能不够迅速:例如间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,按用量付费可能会比按资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没领头羊企业和事实标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台按照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能按照内存和日志空间限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间限,因为企业已经数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
s****d 2018-07-11
亿元级云用户分析
3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,廉价量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收亿的,但定个1000万的目标是能实现的;如果1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是技术含量的故事,需要精英售前给销售做幕后军师。 配图说明:谁掌握了数据,谁就掌握了真理 3.4人力资源池 亿元项目不可能是客户自助实的,人力营收占比很低但画龙点睛,可能会干掉纯卖资源的友商,也可能晚交付半月就亏损千万。
疏****月 2018-07-09
一键线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线故障; 业的多地域部署; 多种网络环境及大部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的规范。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。同时流量调度也无法使得恢复正常。
流****水 2018-07-11
度云企业级运维平台——NoahEE
物理操作维护怎样反应到系统? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、架工单后即可在管理中看到该器并进行管理,无须任何其他操作。一图胜千言,我们看看资产管理的特点: 图3 资产管理 部署管理 应用部署一直是运维工作中的重点,一般来说,我们面临的问题: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行流量线测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 面的第一个问题,实际管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
附录2:网到一个写NTPD和ntpdate的水文和本文内容些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
追****圣 2018-07-11
给书记省长讲清楚云计算
前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你市场客户那对方会主动门寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到全国。这个窗口期只三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心数。 第一类是大型云厂商,他们自身很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手抢单子。地方政企和这类企业合作时很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术些优势,而项目的推进落地都是要靠云厂商来执行的。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
云计算历经多年发展,从最初的概念模型,到被大众熟知,再到现在全行业拥抱云,取得了巨大的进步。云的主要客户已从最初的中初创公司逐步渗透到各行各业的大型企业。可以说,企业云已是企业发展的必由之路。部分数据敏感的企业结合自身数据的安全性、所权和控制权等综合因素考虑,会选择搭建自己的私云或者混合云环境。 但是在述环境中,用户的机器都需要自行管理,这就必然给云运维人员带来很多意想不到的麻烦。 其实我们面临的问题从来就没什么大的变化,唯一不同的只是机器规模越来越大,人心越来越复杂。 Q如何在1台机器部署基础设?A 一切都源于那个亘古不变的道理:扔一个文件到机器,然后跑一个命令。 Q如何在10台机器部署基础设?A 写个for循环搞定。 Q如何在10000台机器部署基础设?A 这个也好办!定制操作系统镜像CUSTOM.iso装机自动化安装! then…… Q如何快速升级所机器的基础设? Q因异常挂掉,能自动重启保活吗? Q公司做活动,预计流量突增,能扩容吗? Q公司活动结束,为节约成本,能缩容吗? Q新开发的基础设问题,能立马回滚吗?
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件传,二是进程的重新启动。进程的重新启动不必多说,软件传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集大量的实时信息(前期文章《百度大规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往走的软件质量还不如XXXX,此处省略一万五千字,客户自己揣摩吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍一样,脸疼了就把屁股凑过来,屁股疼了就捏捏脸,一般不会按住一只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不墙,故障的性质对长久的品质很重要。 我列一下潜在的故障原因,些故障能忍,些故障不能忍,这些要云客户自己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源平台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确实客户要自认倒霉,因为友商也会遇到同样问题。 现在容易出问题的是云平台的运营维护和云厂商的自定义管理模块,客户就是缺合格运维才被逼的云平台,但云厂商自己也缺人;在软件BUG这一部分我已经吐槽过做云平台外延模块程序员的技能水平了。这些地方出了问题该投诉投诉、该索赔索赔,逼着客户去招更敬业专业的工程师。
TOP