关于 小妹保健服务 78792796-微V号姚安县服务lggnbz秦 的搜索结果,共677
h****e 2018-07-10
程序:我从哪里来?
作为一个底层的基础,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和流量管控能力。 1流量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行或实例信息注册。为了证平台稳定和全的运行,需要对非法和异常请求进行拒绝,在流量接入层(Proxy)端提供了以下两个功能: 流量鉴权:每一个组、单元、实例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。 配额限流:针对产品线、用户、IP提供一定的配额,当请求的数量超过配额,就会拒绝响应的请求,并提示用户Quota超限。 2Web Server Web Server提供用户进行各类BNS变更的接口,承担了BNS系统的大部分写入流量,采用分布式多地域的部署方式,可以避免单实例、单机房的故障对可用性造成的影响。 3存储层 这里主要包含数据库和Cache层两个部分。 数据库:采用MySQL存储,采用主从集群部署、读写分离的方式。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
红****2 2018-07-10
故障自愈机器人,心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还有底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户有精力就做多云冗余校验,有预算就做专有资源池部署;未来云厂商还会自定义SLA标准——大部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即有云端IT资源,也有平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是护。 友好接口--面对亿元大金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家有故障,用一家就知道一家的短处才是正常,只有前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思路完全不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍上规模,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会有网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
M****点 2018-07-10
中国云计算现状——产品篇
最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据全性,而且企业仍然需要DBA承担设计维护工作。 对象存储是新兴需求,企业里本来就没大规模对象存储搭建能力,而且对象存储对应用程序友好上手简单,客户对它是积极拥抱甚至业依赖。一旦用户在对象存储平台堆积了上TB的数据,大数据和AI分析应用自然就部署上来了。广域网传输稳定性不够成本又过高,只能是计算组件跟着存储就近部署,PaaS云创业公司从对象存储入手才更有客户粘性和横向扩展空间。 大数据类PaaS类似于云数据库,用户要自带海量数据过来,Mapreduce过程和结果又都要用户负责,最终客户觉得云平台什么都没做,大数据PaaS都用成IaaS定制模板虚拟机了。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
本文聊个很有嚼头的技术问题,Linux系统的启动过程,当我们不用自己装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
流****水 2018-07-11
度云企业级运维平台——NoahEE
资产管理 在机房里,各种各样的器、网络设备和全设备7x24时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所有运维操作记录可追溯。有了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
做合格产品经理性价比不高 要成为合格的产品经理,必须有多年IT技术工作经验,既能胜任客户侧的技术顾问,又能在自己团队做个架构师,还要能做市场外宣,同时要抑制住自己折腾的心,还不能在静积累期被人指责和埋没。 ToB产品经理的岗位需求太少、对人的要求太高、出业绩太难,又难有超高收益,为什么不踏踏实实的继续做团队管理、做研发售前、做解决方案? 如果你的团队运气好,遇到一个合适的产品经理,请容忍他短时间不出活,请容忍他拒了客户需求,请容忍他给研发添工作量,因为合格的产品经理要背负和团队负责人一样大的选型责任,他名字叫产品经理,但本质上是软件和设计师。
布****五 2018-07-10
如何执行一条命令
监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。 面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 信息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令信息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。
p****d 2018-07-11
单机房故障自愈--运维的春天
容量护模式:针对固定比例模式存在的容量风险问题,改进的流量调度方式为执行前判断容量是否充足,容量充足则进行流量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍有buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使按照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,流量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【解决方案】 基于容量水位的动态均衡 在流量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 全水位线:流量处于在全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最大承载能力,一旦流量超过故障水位线,很大概率会导致容量过载。 如果全水位线提供的容量不足以满足止损,那我们期望使用上两条中间的容量buffer,同时流量调度过程中进行分步试探,避免一次性调度压垮。 基于快速熔断的过载护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。一旦出现过载风险,则快速停止流量调度,降低次生故障发生的概率。
追****圣 2018-07-11
给书记省长讲清楚云计算
他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决哪些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切实际的期望值。 云计算行业不需要大量雇佣本地劳动力,无法解决大批就业问题;云计算核心员工会呆在一线城市远程操控,很难将云计算人才引进到当地。 云计算不会产生污染,所以不用考虑环减排问题,但其带来的环节能问题很严重,每个数据中心都会占用大量电力。 对于四线城市政府和中型国企,因为现实困难资源有限是搞不了云计算的;二三线城市和大型国企才能提供云计算公司感兴趣的资源。
TOP