关于 找小妹包夜服务 78792796-微V号大庆萨尔图区按摩有服务 的搜索结果,共1472
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失括用户信任度下降、给竞品占领市场机会等。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,用量付费可能会比资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没领头羊企业和事实标准。 PaaS云平台和IaaS云资源的别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,海量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间限,因为企业里已经数据库和DBA了,DBA并不信任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的规范。
流****水 2018-07-11
度云企业级运维平台——NoahEE
在业规模发展到一定程度后,运维工作还停留在早期人工或脚本方式执行的阶段时,这样的差异非常频繁的发生。 在实际的运维中,还更多的因素需要考虑,例如机器是否会分配给不同部门(资源的隔离)?权限又该如何控制?随着规模变,人力成本等管理成本上升,然而效率低下、可用性不升反降等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行效组织管理与定位: 2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下上面的例子。这个例子中,地研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加一些指标采集任,并在一定条件达成时报警。管理通过对资源合理的组织,极的简化了运维操作,提升了运维效率。
s****d 2018-07-11
亿元级云用户分析
限制客户梦想的是老旧系统是否支持常见协议,还底层工程师能否推动上层业测试和变动。 API调用PaaS——API云就是不可控过程的黑箱,客户没预算没精力就盲目信任云厂商。客户精力就做多云冗余校验,预算就做专资源池部署;未来云厂商还会自定义SLA标准——部分API云连等待超时都没定义。 版本发布和数字化转型——无论是观的版本发布还是宏观的数字化转型,其实都和上云没直接联系,一个是室内装修工作,一个是新建房屋工作,但装修的最好时机是房屋重建的时候,云厂商要帮客户推动IT技术革新。 5.输出分析 云厂商输出给客户的即云端IT资源,也平台输出。是个比资源更难量化的概念,我只引一把火苗出来。 咨询规划--如果直接给客户买资源,那就只能谈性价比,而且资源本身不会说话,所以云厂商要做好咨询规划。 明晰验收--云项目的实施和结项都是以结果为导向的,明确的过程控制和验收标准对供求双方都是保护。 友好接口--面对亿元金主,云厂商的下限是类比传统IDC,要把金主伺候舒了就要学IOE类集成商。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
东方的梦没法子不醒了。----老舍《断魂枪》 云计算潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板都是BIOS引导,也是UEFI引导,但从器用户看别也不。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
w****0 2018-07-11
单机房故障自愈-黎明之战
要求:将拆分为若干不同的逻辑单元,每个逻辑单元处于不同的物理机房,均能提供产品线完整。 3.不满足N+1冗余 描述:任意单个机房故障时,其余机房剩余容量不足以承担该机房切出的流量。 问题:流量调度导致其余机房过载,造成多个机房故障,造成更范围的影响。 要求:容量建设需要对于每个逻辑单元都要明确的容量数据,并具备N+1冗余,即任意机房故障情况下,其余机房均可承载这部分流量,同时需要保证变化时及时更新数据和扩容,避免容量数据退化。同时对于流量的变化趋势,也需要提前的预估,为重事件流量高峰预留足够容量(如节日、运营、假期)。 4.关联强耦合 描述:上下游使用固定IP或固定机器名进行直接连接。 问题:单机房故障发生时,关联的上下游之间无法进行快速的流量调度止损。 要求:线上关联不允许使用固定IP或机器名链接,需使用具备流量调度能力的上下游连接方式以实现上下游依赖解耦,下游发生单机房故障,可以快速调整路由比例实现止损。 单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
三、正确的时间是向量 Linux环境下两个常用工具,NTPD和ntpdate。NTPD是一个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。
追****圣 2018-07-11
给书记省长讲清楚云计算
前几条都是从降低成本可靠的角度请云计算企业来合作建厂,如果你市场客户那对方会主动上门寻求合作。从长周期来看云计算的客户是覆盖全球全行业的,各地内部采购的计算机项目根本不值一提,市场和客户要靠云计算厂商自己去。但现在云计算厂商还在早期扩张摸索之中,云厂商极端渴求各种政云企业云成功模式案例,一旦摸出来案例会迅速推广到全国。这个窗口期只三五年,随着政云企业云被其他公司摸透并推广开,这些项目就从首发明星案例变为普通捆绑销售了。 挑选合格的云计算合作厂商,每类厂商哪些特点。 前文说的为何要引凤,如何算筑巢。当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心里数。 第一类是型云厂商,他们自身很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从型云企手里抢单子。地方政企和这类企业合作时很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术哪些优势,而项目的推进落地都是要靠云厂商来执行的。
M****H 2018-07-11
故障定位场景下的数据可视化实践
例如我们怀疑是某几台器导致的拒绝量上升,我们可以基于多维度统计报表,点击排序到拒绝最域,然后依次展开到拒绝最的机房和机器。 点击详情后,我们就可以跳转到机器对应的页面,查看对应机器的详细数据来进行定位。 寻关联事件定位 根据历史经验,多数的线上故障都是由于变更操作所引起的,括程序、数据、配置等变更事件,增删机器实例、执行预案等运维事件,甚至括可能引发流量突增的活动运营事件。对于某些体积庞的产品线,开发和维护人员众多,以上事件的发生更是千丝万缕、错综复杂。 面对这个问题,我们设计并推出了一种可以解决这种问题的通用性组件——事件流。 通过事件流,可以快速筛选出故障的前后时间,发生或发生中的事件,每个事件通过色块的长短位置,展示了开始结束时间以及持续时长。我们可以快速的分析出对应时间的故障可能是由于某些操作开始或操作完成引发的。 对于部分业线,同一时间段发生的事件可能上百甚至上千条,我们提供便捷的筛选功能来解决这一问题。通过事件类型标签,打开或关闭某一类事件的展示,优先排查最可能的根因。
不****主 2018-07-09
高精地
在恶劣的天气条件下或在间,传感器识别障碍物的能力可能会受到进一步限制。另外当车辆遇到障碍物时,传感器无法透过障碍物来确定障碍物后面的物体。这时,就需要借助高精地的帮助了。 即使传感器尚未检测到交通信灯,高精地也可以将交通信灯的位置提供给软件栈的其余部分,帮助车辆做下一个决策。 另一个好处在于,高精地可帮助传感器缩检测范围,如高精地可能会告知我们在特定位置寻停车标志,传感器就可以集中在该位置检测停车标志,被称为感兴趣域ROI。ROI可帮助我们提高检测精确度和速度,并节约计算资源。 高精地用于规划 正如定位和感知依赖高精地那样,规划也是如此。高精地可帮助车辆到合适的行车空间,还可以帮助规划器确定不同的路线选择,来帮助预测模块预测道路上其他车辆将来的位置。 如高精地可帮助车辆识别车道的确切中心线,这样车辆可以尽可能地靠近中心行驶。在具低速限制、人行横道或减速带的域,高精地可以使车辆能够提前查看并预先减速。如果前方障碍物,车辆可能需要变道,可帮助车辆缩选择范围,以便选择最佳方案。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
资源投入 云资源贩售过程中,合格的厂商可以让云资源物所值,但巧妇难为无米之炊,原始资源投入不够云就不可能很稳定。面向中客户的时候,云厂商很忌讳透露具体硬件成本,也尽量避免承认资源不足,但面对客户时会很坦诚。 作为持久共生的甲方,请关注乙方的成本红线,买家永远没卖家精。如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带头节俭,而云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;时候明明是人为原因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会个其他原因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业信誉。
小****园 2018-07-10
让PB级云存储不再神秘
常见的例子是片实时打水印损压缩后下载,视频异步转码另存,涉广告片检查后返回特征码,日志文件检索特定字段,文件自定义加密解密等等。这些使用方便收费低廉,甚至在改变原的开发模式,成为存储必备的核心功能点,但是这些使用过程中坑不断。 比如说实时损压缩片这个功能可极节省CDN带宽提高资源加载速度,客户端可以根据自己的设备、网络、应用场景决定要什么分辨率的片,此功能带来了无与伦比的灵活性。但用户不可能是多媒体处理专家,很多应用场景细节根本就想不到的。比如你往我的平台塞个200M我是拒绝处理的,友商不管片多都敢去切,但30%几率是后台切程序崩溃,让你等是十分钟才收到个50X的报错;比如说某些音频编解码规范应用了半个世纪,某款新出的手机可能会出兼容性问题。这类技能太生僻,云厂商培养技术人员都很困难,客户要靠自己评估厂商就更难了。我的建议是多发几个工单,看接工单的是技术人员还是商,看工单处理周期和结果吧。
布****五 2018-07-10
如何执行一条命令
部署过程可以拆解为两个的步骤,一是新软件的上传,二是进程的重新启动。进程的重新启动不必多说,软件的上传可能多种方式,如sftp的集中式,p2p的点对点式等。 监控采集 软件运维过程需要时刻监控系统及业软件的运行状态,各种运维决策都是以这些数据为依据进行的。随着自动化运维的发展,很多运维动作都从人工执行变为了自动执行,自动执行的决策过程更是需要采集量的实时信息(前期文章《百度规模时序数据存储》中介绍的TSDB就是为了解决这些数据的存储问题而研发的)。监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。
若****客 2018-07-10
IT架构的本质--我的五点感悟
在生僻业的规划实施过程中,没人告诉我们该哪些,我们只能靠摸透一个又一个访问逻辑和数据生命周期,来摸索群集内哪些角色和依赖关系。 架构师的核心技能括画好访问逻辑和数据流量,因为问题现状描述清楚了,问题就解决了一多半了。一个好的业访问逻辑,不仅仅是几个圈圈几条线连起来,其信息量罗访问过程的所元素,也要详略得当高亮关键点。 5. 各环节都不可盲信 容灾设计中都尽人事和听天命 整个IT系统中就没可靠的组件,架构师既不能盲目信任撞运,又不能无限冗余吓唬自己,而是在尽人事和听天命之间做好权衡。比如TCP就是要建立可靠链接,而现在做性能优化的时候,家又嫌TCP太过笨重了。 业应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意外崩溃都是可以接受的。 支撑性不可靠,对于部分业,预估一年都不丢一次数据,SLA能到99.95%就可以了。 操作系统故障崩溃,现在商用系统内核都很稳定,一般故障都出在硬件驱动兼容性上,或者些照本宣科的傻瓜乱改默认参数。
m****t 2018-07-11
设计中立公云云管平台
该管理控制台借鉴各云控制台即可,所要展示的资源和功能已经在前文讨论过了,该产品可完美模拟功能强,也可以极速从简只做必要功能。 3.计费系统 标准计费系统的功能复杂又强,每个账户是预付费还是后付费、当前多少余额/透支额度、单个资源是打整体付费还是量付费,免费配赠资源的占用策略,资源欠费后的保留周期,网银和财付费接口,甚至连发票管理都是计费系统要涉及的。 本部分说明如何用一两个人月就能做出来的对账式计费系统。 用户相对可控,对反赖账逻辑就可以弱化甚至不做。 量付费就要几分钟一次频繁对账,那就把虚拟机、公网IP的量付费砍掉,通通做成月付费;对不能做成月付费逻辑的资源,金额需求直接打或减免(比如说OSS的get post费用是一百块钱上亿次),金额项目只能做成延迟出账单的后付费(比如CDN账单)。 产品品类不用太多,比如说虚拟机配置保留常用的5-10类就行了,没必要做出四五十个配置类型。 各个厂商产品单价都是不同,但云管平台的资源可以做成统一价格。云管平台可以简单的最高价格向客户收费,也可以要求高价云平台做充值赠送把价格实际降低。
TOP