关于 小妹找服务全套 78792796-微V号乌尔禾区按摩有服务申 的搜索结果,共1232
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
M****点 2018-07-10
中国云计算现状——产品篇
Serverless的实之处在于要求程序为自己进行改造,其他强调需付费的计算只是快速释放资源的把戏,Serverless才是真正的计算能力集装箱,未来计算场景下的CDN。 三、SaaS产品 其实SaaS产品和狭义的云计算没一毛钱关系,广义的云计算连设备租赁和人员外包都能算进去吹水框架,自然也给SaaS云预留了位置。 SaaS产品已经出现并流行了十几二十年了, OA/ERP/CRM/邮箱/模板建站等等SaaS都是比各位读者从业年龄还长的老古董,最新流行的各种在线办公、协作、通话、众测等SaaS产品也不依赖云器,这些应用上云走公网和之前走内网别并不大,用物理机和虚拟机别也不大。 狭义的云计算是企业,目标用户的是企业IT技术人员,而SaaS云的目标用户和IT人员只在Helpdesk时关联。 从这一点来看,这些SaaS只是云平台的普通用户,和游戏、网站、APP、没别。只要SaaS云没自建IaaS和PaaS的技术能力和意图,那他们就是客户而非友商。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统一前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只一个实例或者多个实例部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如序提交场景下的ID分配),则需要完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。同时流量调度也无法使得恢复正常。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一既灵活又完整的包规范。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
我不会将它压到箱底,偶我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很嚼头的技术问题,Linux系统的启动过程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期内存器一般内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也是UEFI引导,但从器用户看别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好器维护人员比较单纯专一。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了方位故障发现能力,基于百度统一前端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,中断时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
s****d 2018-07-11
亿元级云用户分析
我们先列出来哪些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打包混淆集中交付,云厂商就不是卖资源而是卖梦想了。 3.1 IaaS计算池 IaaS计算池,交付给客户的是CPU+内存+本地盘+本地网+IDC电力,产品形式可以是虚拟机、裸金属、容器,或者预装了数据库-大数据-队列等的模板化云主机,决定资源池成本的是硬件和电力的价格,以及内部浪费程度。销售铁三角对硬件资源池的包装,完成资源成本分析、交付展示和付款周期核算;在硬件资源池交付时,云厂商的优势长处是大规模交付和成本控制,至于短处么——家家本难念的经。 3.2 CDN和带宽池 CDN和带宽池不同于器硬件,其原始资源是相对稀缺死板的广域网带宽,其交付的资源是持续不断的,所以资源部署比较慎重但客户流动成本较低。制约客户量迁移的是厂商的承载能力,而挖角和反挖时刻都在细水长流。CDN和带宽池首先考察的是企业内功,廉价海量资源;再考验销售内部协调能力,能不能把好资源好价格抢到手里;而盯客户的路和百万级销售类似,工作力度加大三五倍而已。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
s****7 2018-07-10
知著看技术误解——从裸光纤和NTPD谈起
我们很难成功调试NTPD,会装NTPD又没会装LAMP可以拿去吹牛,时间长了NTPD就背上黑锅了。 真TOP10的互联网公司和上亿国家级项目里用ntpdate+crond,上一代架构师为什么这个误会无人深究,下一代人将误会固化为偏见,新一代人将偏见神化为迷信。 但无论误会、偏见还是迷信,时间跃变、回退和停滞对应用健壮性和业性的威胁始终存在,时间不仅仅是我玩游戏时用的魔法,忽视问题并不能掩埋问题。 六、见知著和防杜渐 我讲NTPD和裸纤并不是为卖弄知识,也不是为做偏门科普,而是希望进阶工程师们多考虑一下如何规避这类误会?我们在做技术工作时,是不是只关注客户和同事能提出的需求?客户永远不知道裸纤的物理特性,同事也不会知道时间也能错误和波动,他们能说清楚业逻辑就不错了。 把所的精力都用到做业逻辑,你只是个编程语言翻译机而已;自己主动观测技术环境依赖,资格能力做出技术选型决策,才是给Coder群集做技术校准的人。即使你不想做技术决策人和管理者,多怀疑和观察环境,也能少些沟通成本,少走一些冤枉路,多一份自信和自尊。
流****水 2018-07-11
度云企业级运维平台——NoahEE
另外,NoahEE提供了不同的工单流程覆盖了日常机房运维中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、上架工单后即可在管理中看到该器并进行管理,无须任何其他操作。一图胜千言,我们看看资产管理的特点: 图3 资产管理 部署管理 应用部署一直是运维工作中的重点,一般来说,我们面临的问题: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行流量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,实际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。在部署管理模块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作等,在部署的过程中发现问题即可暂停并回滚至之前的状态。除了部署等操作,部署管理模块还提供了批量执行命令等操作(比如批量启停某一)。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
前言 云计算是一种不仅要一次性验收其能力,还要持续关注其品质。客户用IaaS云就跟用IDC一样,用谁家的云就知道谁家故障,用一家就知道一家的短处才是正常,只前一个厂商烂到无可救药,客户才会对新厂商充满认可和感激。 本文的目的就是归类IaaS云故障的表层现象和深层原因,客户知道云的短板才好做系统设计,云厂商出故障也要老实认错,别总把客户当外行来糊弄。 至于PaaS云和IaaS云的设计实现思路完不同,不在本文讨论范围内。 客户的感知和建议 IaaS云的核心资源是云主机,其他IaaS资源都是依附于云主机的;云主机的可靠性略高于物理机,但并不是云主机永不宕机。 只要云主机采购量稍上规模,云主机用户总会遇到一些故障。请谅解和忘记供应商的营销话述,云主机用户必须自己在架构设计层面规避这些故障。 网络抖动 现在云平台已经都用SDN组网,SDN本质是“软件定义网络”,其主打卖点是灵活管理和控制,其性能和稳定性并不是主打方向,SDN软件的质量也要略差与于传统厂商。云平台都会网络IO超卖复用,而且用器CPU软解海量报文,其性能还是比传统网络略差的。
追****圣 2018-07-11
给书记省长讲清楚云计算
云基地通俗易懂的展现形式就是开启数十万个高速运转的电脑铁皮箱,但这些电脑不用接显示器也不用人员现场操作,只要这些电脑能开机能上网就能对外。云基地和数字地产不完相同,数字地产只装修好房子,云基地关注用这些房子做什么。 云基地是无烟工业,并不需要雇佣大量人口,对直接促进就业帮助不大;但云计算没实体矿产投入和物品产出,只需要大量电力启动电脑也不会产生大量污染。 云基地像电视台和信塔一样,通过产生和扩散数据信息对客户提供,这些信息的传输没物流成本,光速直达球每个角落。 因为云基地球客户,所以云基地可创造极高的营收,但不能简单的计入地方政府的GDP。一个耗电三千瓦的机柜加附属空间占地5平方米,如果云计算资源部售出,每年可产生20万元以上的营收。但是这些营收会计入云计算公司所在地,而非云基地机房所在地,云基地只能被当做外地公司在本地租赁的库房,只会在所在地消费掉地租、电费和网费。各地政府只提供足够的优惠政策,才能吸引云计算公司在当地成立独立税核算的分支机构;长久规划的地方政府甚至可以将云计算人才逐步引入当地,形成高科技硅谷园
m****t 2018-07-11
设计中立公云云管平台
云厂商提供OSS+CDN的好处就是内网互通节省带宽费用,但大客户很可能越过云管平台直接采购,客户一年可能只节省几十块钱。云管平台要集成OSS和CDN时,一定要注意这两个是没域概念的,比如客户用了百度北京的虚拟机加上七牛浙江的云存储和阿里国的CDN,此时客户业绝对跑的通,三方互通额外网络开销。云管平台的资源创建和计费系统都要考虑清楚,尽量资源走一个供应商,或要求不同供应商之间相互免费。 上述PaaS资源都一个特点,可以照使用量付费,或者提供贴合到业逻辑操作层面的支持功能,那也就代表着客户的计费访问数据铁定会被供应商拿到,而业数据是否被偷窥要看供应商自律。 我们再看看下文一些更专业(偏门)的。 容器云入门门槛太高,在中客户场景下缺乏成功案例,如果没具体项目要求上容器云,就等到接完上面的PaaS再考虑接入容器云。 反DDOS攻击只能由云厂商提供,因为开销偏大计费不灵活,但又没日常管理需求,客户到云管平台到厂商沟通时直接用邮件、工单和合同即可,如果没频繁攻击和检测需求,可以不留展示界面只用邮件通知。
小****园 2018-07-10
让PB级云存储不再神秘
容量数据也很容易迁移,假设你要从云存储迁移100G的数据到虚拟机,总成本不超过300元,迁移时间也可以控制在一天以内。了方便迁移这个特性,云存储平台什么让你不爽的,直接迁走。 2、中型用户三思后行 GB级用户不在意的坑,TB级用户部要踩一遍;而TB级客户在面对繁杂市场宣传,很难看透云存储的本质内容。对象存储都是用API接口调用,普通用户看不到也不关心群集规模和技术细节。大家读完本文以后可以更理性和警惕的评估云存储供应商。 首先说数据持久性和安性不用太关心。云存储厂商都宣称数据可靠性超过10个9,在我看来各种SLA超过8个9就已经比第三次世界大战的几率还了; 平台说自己能到多少个9,我们都笑笑就好,故障出来了平台总能到理由的。你买最贵的EMC存储柜也不能保证100%不丢数据,怕丢数据要设计备份方案而不是寄希望于单一硬件或。 TB级用户同样不用太关心存储群集的性能,因为你是用HTTP协议访问一个广域网,广域网和客户端才是网络吞吐性能的瓶颈。几家云存储厂商在SLA里都没承诺速率,上行带宽本来就免费,而下行带宽都会走CDN。
M****H 2018-07-11
故障定位场景下的数据可视化实践
基于上面的需求,可以总结为以下三个定位的层次,从整体到局部逐步缩故障范围,到故障根因: 局问题定位:快速确认线上状态,缩故障判定范围。为可能的止损操作提供判断依据。本文会介绍如何构建一个景分析仪表盘。 细分维度定位:通过分析地域、机房、模块、接口、错误码等细分维度,进一步缩问题范围,确定需要排障的目标模块、接口等。本文会介绍如何基于多维度数据可视化解决维度数量暴增带来的定位难题。 故障根因确认:一些情况下,问题的根因需要借助除监控指标之外的数据进行分析。例如上线变更、运营活动导致的故障。本文针对导致故障占比最高的变更上线类故障进行分析,看如何快速到可能导致故障的变更事件。 景掌控缩范围 对于一个乃至一条产品线而言,拥一个布局合理、信息丰富的景监控仪表盘(Dashboard)对于状态景掌控至关重要,因此在百度智能监控平台中,我们提供了一款可定制化的、组件丰富的仪表盘。 用户可以根据的特征,自由灵活的组织仪表盘布局,配置所需要展示的数据信息。
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用上,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散操作就越爽,但局操作开销更大更难控制。 实时改异步是我学的最后一门IT技术,绝大部分“实时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要实时处理结果了。CS模式的实时操作会给支撑带来巨大压力,Peer合作的实时操作可能会让数据请方等一宿。架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做局事保障。 在群集性能规划中,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符合自然规律章可循的。 一个经典机系统就是中央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
h****8 2018-07-10
能力比梦想更重要——企业级难寻产品经理
:产品经理需要凌晨从床上跳起来十次,然后手机静音漏掉一次故障,才会对监控频繁误报切肤之痛。 利害关系:缺乏详细监控信息和故障处理功能,没漂亮的监控页面和月度报告,监控部门只能依赖其他部门排障,又被被公司领导视作闲职,没业绩没晋升也没新HC。 我举的第二个例子是一个网店仓库拣货发货系统的合格产品经理: 技术:对IOT传感器、图像识别技术、网店ERP系统足够了解。 业:对拣货员的拣货路径、数量、看单还是听单、错误信息处理充分的了解,自己至少要做三天拣货员,仓库里的纸板味能熏得你睁不开眼;如果做农业IOT,可能是要养三天的猪,拌猪食扛死猪都要干一干。 利害关系:了解分拣员需要这系统更无脑的拣货,组长需要用系统约束的分拣员,公司需要这分拣系统更快周转货物。而你既要让客户内部三方满意,也要通过工作的简化明细化,引入自己公司更多的IOT和图像识别设备,甚至用机器人取代一部分人力工作。 某些水货会说这是售前和解决方案的工作,人家跟你又没隶属关系,凭什么帮你解决就业问题,产品经理要自己调研和汇总客户的合理需求。 2.
TOP