关于 小妹保健服务十薇v信78792796霞山区海头小妹服务欧 的搜索结果,共792
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户任度下降、给竞品占领市场机会等。
M****点 2018-07-10
中国云计算现状——产品篇
用好PaaS产品可以更省人力、更快交付,按用量付费可能会比按资源付费更便宜(也可能更贵),而PaaS平台的恼人和诱人之处均在于产品形态很模糊、质量很难评估、很难独立运营、没有领羊企业和事实标准。 PaaS云平台和IaaS云资源的别就在于,平台需要理解客户的动作和状态。对象存储和CDN就是最典型的PaaS,云平台按照数据容量、访问流量、访问次数和方法收费;Mysql RDS只能按照内存和日志空间上限计费,但仍然可以替客户做数据库状态展示、分析和备份,这是过渡性的PaaS。 最常见的PaaS是数据库,最重要的PaaS是对象存储,最成熟的PaaS是CDN,最有魅力的PaaS是Serverless,我们重点看这四个。 一个经典PaaS应该只是一个进程,进程是无法长期存储数据的,量结构化数据依赖数据库存储,量数据依赖对象存储。 云数据库(如RDS)很重要但想象空间有限,因为企业里已经有数据库和DBA了,DBA并不任云端未知架构数据库的性能、稳定性和数据安全性,而且企业仍然需要DBA承担设计维护工作。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,你安心好睡眠一文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。
追****圣 2018-07-11
给书记省长讲清楚云计算
第一次工业革命开始时,每一个矿都安装各自的蒸汽机;第二次工业革命开始时,每一个工厂都要重点解决电力等能源问题;息技术革命开始时每个公司都要有计算机工程师。但百川终到,发动机能统一标准,电力能源能集中供应,云计算平台可以实现计算机技术的标准化,凭借规模效应降低成本,让客户直接付费购买息技术,极大减少了客户的人力投入以及衍生的时间和管理成本。 息技术革命的核心工作是息的存储和处理,最重要的资源是数据。客户的数据放在云平台就像资金放在银行一样,银行可以根据储户的流水评估用,央行可以对货币进行宏观调控,云平台一样可以对用户息进行评估计算,甚至国家层面可以进行宏观管理调控。 综上所述,云计算就是将分散在各个公司的息技术资源汇聚到一个大平台,其兴起始于需求扩大而人力短缺,其未来发展趋势是通过规模经营和数据共享,成为新型息化社会的技术基石。 云计算如何带动地方经济 云计算落地是要自建数据中心机房,我们一般称之为云基地,云基地在经济利益和社会影响上和传统工厂并不相同。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
本文聊个很有嚼的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。 3.读取MBR(可略过)。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
而我不喜欢用ntpdate同步时间的工程师,NTPD是一个体系化的,而ntpdate只是一个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目任,不相t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。
布****五 2018-07-10
如何执行一条命令
监控数据的来源主要分两种,一种是通过业软件提供的接口直接读取状态数据,另一种是通过日志/进程状态/系统状态等(如使用grep提取日志,通过ps查询进程状态,通过df查询磁盘使用等)方式间接查询。 无论是配置管理、部署变更还是监控采集,都有一个共同的目的:控制器。在现阶段,要想对器进行控制,离不开“在大量器上执行命令并收集结果”这一基础能力,这也是今天我们的主题“如何执行一条命令”的意义所在。 面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如前文所述,对于单机环境来说,这三个问题在前人的努力下已经被很好的解决。可是如果要在几万台机器上每天执行几亿条命令,同时证时效性,证执行成功率,证结果正确收集,证7*24时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的过程中要面临诸多困难,此处举几个突出的例子如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行过的命令息持久化。日均几亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。
流****水 2018-07-11
度云企业级运维平台——NoahEE
资产管理 在机房里,各种各样的器、网络设备和安全设备7x24时的运转,为我们的业提供了硬件障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越疼。 对这些设备的运维操作,通常都涉及不少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作维护怎样反应到系统里? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所有运维操作记录可追溯。有了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。
s****d 2018-07-11
亿元级云用户分析
销售铁三角对硬件资源池的包装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家有本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户全量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,有没有廉价量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的套路和百万级销售类似,工作力度加大三五倍而已。 3.3数据存储池 数据存储池是很难年均摊营收上亿的,但定个1000万的目标是能实现的;如果有1000万的非冷备存储池,那很容易带来数倍数倍的计算和带宽消费。存储资源是大订单曲线突破的好选项,还是AI和大数据项目的基石,我们和客户讲的是有技术含量的故事,需要精英售前给销售做幕后军师。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
如果甲方给够钱了,乙方仍然用劣质硬件IDC和过高超售比,云厂商一般是老板带节俭,而大云厂商很可能是执行层的人弄错了,作为甲方该闹就要闹。 人为原因 云厂商的人为故障总是糊涂账,但细心的甲方是能看出来端倪的。有时候厂商想遮蔽技术和资源的问题,会说是人为原因,缓过这一次故障赶紧修订BUG和准备资源;有时候明明是人为原因,但人为故障都是打脸实锤,厂商脸会肿而且要赔偿,可能会找个其他原因来给脸部降降温。 对于落实是人为导致的故障,甲方单纯的索赔追责并不能解决问题,因为云厂商总是比甲方的实际损失更,甲方无法触及云厂商能倒腾出故障的部门。甲方只能根据云厂商销售和线的能力和态度,确认自己交钱了能否买到靠谱的。 最重是商誉 云计算既是资源又是,资源相对可以量化,但短期内看直观感受,长期看商业誉。商誉分为企业商誉和个人商誉,云厂商的企业商誉都积淀不足,胜者也是比烂大赛中靠友商更烂胜出的,和IDC/CDN的比优大赛无法相提并论。大客户在吃够了厂商的亏以后,会选择任能有个人商誉,能做出承诺、调动资源和平复问题的销售和人员。
小****园 2018-07-10
让PB级云存储不再神秘
云存储里大都是多媒体数据,谁敢盗播打官司就好;日志文件加密了就用不了云端大数据分析了,但不挂个人息的基因测序样本被偷了也不怕。如果客户真的特别害怕丢数据,云平台确实没手段能自证清白,谁偷过用户数据只能听业内风闻。 真正让用户疼的是平台方会根据计费日志估算你的业规模,就像安总共能看到你何时出门一样。据不可靠传闻,某厂商本来能拿到某云厂商母公司数亿美元投资,自吹数据量有数PB,该司投资部去调了一下他们的消费金额就取消投资了。单一个消费总金额就这么麻烦,访问日志可以看文件数量、用户规模分布和大致的动作类型,一个新兴企业最好还是把业分散在两个厂商那里,毕竟他们两家不能核对你的账单。 最后一条就是有些领先大厂直接压制,故意做技术无关的不兼容、甚至拒绝、甚至从其他层面正面打压业。这里就不举例了,太明显针对单一厂商。如果只是技术不兼容那算和其他云平台恶意竞争,如果到了云平台明抢客户自身业的阶段,技术采购决策人请把风险告知公司决策层,该妥协还是硬扛不是你的职责范围。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前言:架构师是个无趣的工作 老僧三年前未参禅时,见,见水是水。 及至后来,亲见知识,有个入出,见不是,见水不是水。 而今得个休歇处,依前见只是,见水只是水。 参禅的三重境界在IT技术圈同样适用,初学者感叹每个产品都如此精妙绝伦,追逐着最强的IDE;老司机喜欢自比管乐指点江,嘲讽着最好的语言;当一切回归平淡,搞IT就是一份思想延伸和语言翻译工作;其中技术架构师就是一份古朴甚至无趣的工作。 我将架构师的工作总结出五条核心道理,这五条经验简单直白又深奥通透,算是对我二年IT工作的一个总结。 1. 需求优化最重要 少查少写少依赖,Less is more 一个IT系统是多角色多模块分层分级的,像OSI模型上层应用简单依赖下层支撑,SOA设计中同级角色也只看对方的接口。 各角色分工明确方便快速实现业,但是给架构优化也埋下大坑,底层的盲目支撑是巨大资源浪费,平级调度协作也没任何弹性。前端一个逻辑需求会导致后端大规模联动,不同也没权限理解对方的内存数据,各个角色的工程师都只看自己的工作范围,这是正常又无奈的现状。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
后面任下发至具体机器,具体机器再从中转机拉取需要被部署的文件;中转机也为跨网络环境的部署提供了可能,隔离网段中的机器无法访问内网机器,通过中转的“搭桥”完成了跨网段的数据传输; 提高自动化效率,能够集成测试发布自动化流水线 自动化效率方面,Archer提供了命令行工具,可接入各种脚本、平台。另外,Archer也可定制化单机流程:针对不同的业场景,Archer提供了名为“operation_list” 的配置文件,采用YAML语法。单机执行流程步骤被定制化成固定几个种类。用户通过简单的配置,即可实现“启停监控”、“启停”、“数据传输”、“执行某些命令或脚本”、“启停定时任”等上线过程中的常见操作的自由组织及编排。这种形式大大扩展了Archer的适用范围。在了解Archer使用方法的情况下,OP几分钟内即可配置出适用于数条不同产品的上线方案。 其他设计点 每次的部署流程通过web总控端的参数解析后,就被作为任下发到每台被部署的目标机器。当部署任从总控端发到被部署机器上时,任的具体执行依赖agent及一系列脚本。
TOP