关于 小妹保健服务_薇V:78792796佛山勒流镇按摩有服务hts 的搜索结果,共1111
h****e 2018-07-10
程序:我从哪里来?
基本架构 BNS系统主要包含几个部分:量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面完善的容灾能力和量管控能力。 1量接入层 系统通过HTTP接口对外提供变更,用户通过Web页面或者接口进行或实例信息注册。为了证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在量接入层(Proxy)端提供了以下两个功能: 量鉴权:每一个组、单元、实例的注册都需要进行权限验证,用户只申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。 配额限:针对产品线、用户、IP提供一定的配额,当请求的数量超过配额,就会拒绝响应的请求,并提示用户Quota超限。 2Web Server Web Server提供用户进行各类BNS变更的接口,承担了BNS系统的大部分写入量,采用分布式多地域的部署方式,可以避免单实例、单机房的故障对可用性造成的影响。 3存储层 这里主要包含数据库和Cache层两个部分。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的量调度能力 单机房容灾能力--常见问题 单机房故障场景下,量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
在传统的运维方式中,由于故障感知判断、量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能量调度与自动止损能力。同时,基于实时容量与实时量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
Archer的配置文件路径、的启停脚本及运维命令具固定的标准并且支持定制化,使用Archer进行部署的统一的包结构; 支持分级发布,及时拦截部署引入的线上故障 针对分级发布的使用场景,Archer支持串并行上线及暂停点功能,可照单实例、单机房、单地域等级别设置暂停点,并支持部署过程中进行暂停、继续、重试、撤销等操作; 业的多地域部署 的多地域部署主要需要解决不同地域配置不同的问题。Archer提供了配置派生功能以支持多地域部署的场景。Archer支持在同一份配置文件中设置配置变量,并在特定地域(机房)中生成特定配置值; 多种网络环境及大包部署 针对多种网络环境及大包部署的使用场景,Archer提供了部署数据中转传输。采用中转的上线在发起任后,部分代码将首先被转存至中转机上。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没领头羊企业和事实标准。 PaaS云平台和IaaS云资源的区别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间限,因为企业里已经数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
p****d 2018-07-11
单机房故障自愈--运维的春天
固定比例模式:照预先设定的固定预案,一个机房故障,该机房的照预先设定的比例分配到其他的机房。很可能某个机房的容量或剩余机房的总容量不足,切量后导致多个机房发生故障。 容量护模式:针对固定比例模式存在的容量风险问题,改进的量调度方式为执行前判断容量是否充足,容量充足则进行量调度,否则不进行调度并通知人工介入处理。但此种方案面对的问题是: 1.容量仍buffer可以进行部分止损。期望能够在不超过容量护的情况下进行尽可能的调度,减少对用户的影响。 2.即使照容量进行调度,过载仍可能发生,容量数据本身存在一定误差,量成分的变化以及变更等导致的容量退化,都可能导致原先容量无法完全可信。 【解决方案】 基于容量水位的动态均衡 在量调度时,对于容量不准确存在的风险,我们划分两条容量警戒线。 安全水位线:量处于在安全线以下则风险较,可以一步进行切换。 水位上限:该水位线表明的最大承载能力,一旦量超过故障水位线,很大概率会导致容量过载。
s****d 2018-07-11
亿元级云用户分析
销售铁三角对硬件资源池的包装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长。CDN和带宽池首先考察的是企业内功,廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能实现的;如果1000万的非冷备存储池,那很容易带来数倍数十倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是技术含量的故事,需要精英售前给销售做幕后军师。
流****水 2018-07-11
度云企业级运维平台——NoahEE
对于故障处理与修复,NoahEE通过故障自动发现与工单程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。一图胜千言,我们看看资产管理的特点: 图3 资产管理 部署管理 应用部署一直是运维工作中的重点,一般来说,我们面临的问题: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,实际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。在部署管理模块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作等,在部署的过程中发现问题即可暂停并回滚至之前的状态。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用上,无状态-会话持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更大更难控制。 实时改异步是我学的最后一门IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据申请方等一宿。架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做全局事障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符合自然规律章可循的。 一个经典微机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
追****圣 2018-07-11
给书记省长讲清楚云计算
器就是高功耗高价格的专业电脑,云计算企业的采购规模一般远大于政企集采,他们能从硬件厂商那里拿到极限低价,政府和国企能提供的更多是采购资金的支持。 云计算是一个商业,不仅需要硬性支持,还需要足够的环境和政策支持。当前云计算公司聚集在一线大城市,环境规范稳定但成本极高竞争压力极大,云计算企业也在尝试向二三线转移突围。二三线城市不仅要积极准备云计算硬性资源,还可以用合作融资、税收优惠等等灵活政策承担产能转移的,最终说云计算公司将GDP和税收留在当地。 云计算平台提供的都是互联网,大量的互联网部署在本地会极大的管控压力。二三线城市对互联网还只是简单的管控,稍不解可能就会封禁一大批互联网,但一道封网命令就可以毁掉一个云计算公司的声誉。如果当地政企要做好云计算就要从管理者变为者,必须在管控违规违法时不惊扰正常业,甚至主动出击为正常网络驾护航。 前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你市场客户那对方会主动上门寻求合作。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
大客户在吃够了厂商的亏以后,会选择信任能个人商誉,能做出承诺、调动资源和平复问题的销售和人员。 个客户非常信任某个云销售,他告诉该销售,虽然某大云高层合作,某大云也说报价肯定比某云低5%;但是某大云的机制问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单子在客户执行层的暗助之下,该云快速把业切过来并坐实站住了,这份暗中相助就是靠个人商誉带来的信任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们信心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。 过去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是商誉的销售-售前-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让信赖你的客户受伤又受骗。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
布****五 2018-07-10
如何执行一条命令
为什么要执行命令 在分布式产品的开发维护过程中,三个主题是无法绕过的,分别是配置管理、部署升级和监控采集。 配置管理 配置管理的目标是为了标识变更、控制变更、确变更正确实现并向其他关人员报告变更。从某种角度讲,配置管理是一种标识、组织和控制修改的技术。通常情况下,配置管理都会统一部署配置器来同步所节点的配置。但是在开发测试过程中,总会出现临时修改某个或某一批节点的配置的情况,这时通过人工逐个登录来完成修改显然是不太可能的。 部署升级 DevOps的概念如今日趋行,部署升级越发成为开发运维过程中重要的一环,频繁的交互意味着频繁的部署。部署过程可以拆解为两个的步骤,一是新软件包的上传,二是进程的重新启动。进程的重新启动不必多说,软件包的上传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
而ToB产品的研发,可能就是缺某些IT技术,或者IT投入、管理、程等开销太大,最终不具备工程可行性。合格的产品经理,要求从技术水平上得住研发,否则就是研发体系的附庸。 我写了一篇《监控专用对象存储的畅想》,这是一个浅层涉及技术的随笔,但好几个存储产品经理都说读不懂这篇文章。因为照toC的产品思路,他们不用关注存储技术,更不会关注TCO成本,但toB产品要成功就必须考虑这些问题。简单抓一个资深存储研发做产品,他很难学会评估TCO成本,对客户需求或者怂的像个软蛋,或者硬的像个棒槌;我们简单抓个售前来做产品,他们算TCO是很溜的,但他们就是搞不定存储技术才去做售前的啊。 ToC产品的设计对象可以笼统说是大众自然人,而ToB产品都是隔行如隔。我们让一个ERP研发转行去做信息可行性的,但一个合格的存储产品经理被去做IOT产品设计更像是从零开始。 3. 产品经理的管理问题 ToB产品经理很难管理,因为发挥空间、求稳而非求快、评估难度大。 我们见过很多颠覆性爆款ToC产品,但ToB产品都是对旧方案的改良。
小****园 2018-07-10
让PB级云存储不再神秘
SSD文件存储,这其实是标准三副本存储的SSD版本,一般用来存储文件,SSD盘再贵也比缓存的内存便宜。文件存储的数据总量不大,一般在本盘存储即可,不用导入纠删码存储中。 上述存储手段只是落盘手段,作为存储组件还要通盘考虑下列问题。 磁盘故障时的修复性能。 商用磁盘都是照36-60个月的使用周期设计的,假设你6000块磁盘每个月要坏100块盘,天天坏盘天天修盘已经成为常态。厂商要证损坏磁盘快速修复,避免修复周期内另外几块冗余盘一并损坏,又要证磁盘修复时群集性能受不了太大影响。 当前大家都采购4T8T硬盘,照磁盘顺序写入300M的速率,填满一个磁盘的数据需要10个时以上,最通用的处理方案是将一块4T盘分为40个PG,40个PG逃逸到40块新盘上速度就在30分钟以内,而且没消耗新磁盘太多IO。磁盘修复时的IO放大解决方案但很复杂且涉密,本文不提及。我只透露前文不让做单节点性能压榨就是防着这类异常情况,http下载场景中引入缓存可以减少重复读取的压力。 群集动态扩容能力。 很少项目是上线就建设50PB的容量,并在半个月内全部数据就位。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Q新开发的基础设施问题,能立马回滚吗? Q可以做虚拟化资源限制基础设施不占用过多的机器资源吗? Q如何先部署批量机器,确认无误之后,再做全集群部署?简而言之,灰度发布。 Q新到位10000机器,如何高效部署最新的基础设施?使集群中所机器环境同质化? 管中窥豹,我们可以发现如果在私云或者混合云场景中还是通过人肉运维的方式管理,那么管理效率将会十分低下,并且其中重复繁杂的操作,难以证云环境的稳定性和安全性。急人之所急,需人之所需。百度云的工程师们便展开了一场头脑风暴...... 原始太初 私云中存在大规模的机器集群,集群中一片空虚混沌,渊面黑暗,仅字节在其间穿梭。为效地管控体量庞大的集群,合理分配资源,降低运维成本,障云上穿越狂风暴雨,工程师们意识到:“必须要一个优秀系统来管控这混沌的集群世界!” 第一天 工程师们说:”这个系统要代表操作系统的意志!占用资源少!对外部系统零依赖!装机自带!要能自升级和自活!“。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也是UEFI引导,但从器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。
m****t 2018-07-11
设计中立公云云管平台
云厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过云管平台直接采购,客户一年可能只节省几十块钱。云管平台要集成OSS和CDN时,一定要注意这两个是没区域概念的,比如客户用了百度北京的虚拟机加上七牛浙江的云存储和阿里全国的CDN,此时客户业绝对跑的通,三方互通额外网络开销。云管平台的资源创建和计费系统都要考虑清楚,尽量资源走一个供应商,或要求不同供应商之间相互免费。 上述PaaS资源都一个特点,可以照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文一些更专业(偏门)的。 容器云入门门槛太高,在中客户场景下缺乏成功案例,如果没具体项目要求上容器云,就等到接完上面的PaaS再考虑接入容器云。 反DDOS攻击只能由云厂商提供,因为开销偏大计费不灵活,但又没日常管理需求,客户到云管平台到厂商沟通时直接用邮件、工单和合同即可,如果没频繁攻击和检测需求,可以不留展示界面只用邮件通知。
TOP