关于 阆中哪里有小姐服务〖8843O306VX〗服务真实剖戮凑肆槐 的搜索结果,共1319
h****e 2018-07-10
程序:我从来?
干货概览 在计算机程序或者的层次上,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了例,规模、部署情况、例运行状况如何? 2.我从来? 的上游些,不同的上游流量如何分配? 3.我往去? 的下游些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器上部署信息(机器IP,部署路径,配置,端口信息),例运行状况等其他重要信息。简单来讲,它提供了一个名到资源信息的一个映射关系。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房容灾能力--盲测验收 完成以上四点单机房容灾能力建设后,业线就具备了通过流量调度进行止损单机房故障的基本条件。那么如何验证业线是否具备该能力、能力是否出现退化,我们采取盲测验收的方式,模拟或制造故障,验证不同业线故障情况及止损效率,并给出相应的优化意见。 根据业线进行容灾能力建设的不同阶段,我们从对产品际可用性影响程度、成本、效果等方面权衡,将盲测分为三种类型: 无损盲测:仅从监控数据层面假造故障,同时被测业可根据监控数据决策流量调度目标,对于业际无影响,主要验证故障处置流程是否符合预期、入口级流量切换预案是否完整。 提前通知损盲测:植入际故障,从网络、连接关系等基础设施层面植入错误,对业损,用于战验证产品线各个组件的逻辑单元隔离性、故障应急处置能力。同时提前告知业盲测时间和可能的影响,业线运维人员可以提前准备相应的止损操作,减少单机房止损能力建设不完善导致的损失。 无通知损盲测:在各业线单机房容灾能力建设完成后,进行不提前通知的损盲测,对业来说与发生故障场景完全相同。验证业线在单机房故障情况下的止损恢复能力。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
例如: 2015年6月某公司云香港IDC节点电力故障崩溃12时 2016年5月某公司杭州电信接入故障,时级别 2017年1月某业天津机房故障,数时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。直接损失包括访问流量丢失、商业收入下降、用户体验受损、打破等级协议(SLA)造成的商业赔付等,间接损失包括用户信任度下降、给竞品占领市场机会等。
M****点 2018-07-10
国云计算现状——产品篇
前言 上篇文章《国云计算现状——成本篇》(特大号首发改名为《做好云计算要花多少钱》)讲的是成本问题,即什么企业可能能做云计算。本文是第二篇产品篇,目标客户是云计算产品经理和云计算标准用户。我从一个老用户的角度谈谈每种云计算产品该如何使用,些产品改进是刚需放心吐槽,些产品内因就是改不了。本文主要说用云产品的问题,买云产品的问题在采购篇单聊。 正文 现在是2017年,云计算是物理硬件的优质替代方案,客户很认可云计算极低的采购和交付成本优势。这时候我们要少被企宣PPT洗脑,追求华而不的远景,这些PR文章的受众是风险投资、客户决策层和创业者。我们应该摸清楚云方案和硬件方案比什么特点和局限性,客户明白特点才能使用得心应手,客户明白局限性才会早作备用方案,产品经理心不慌才会关注核心功能。 一、IaaS产品 IaaS平台的本质是,产品以做硬件资源的虚拟化为本,业上承接物理硬件替代需求,其优势是最快速度最低成本交付,客户为预占的物理资源付费。IaaS产品是最经典的云计算,核心组件是云主机,如虚拟网络、云硬盘和安全组都是为支撑云主机业的。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
这次验好玩的地方在于: 我定个35分的任计划,结果ntpd将时间跃变越过了第35分直接到了37分,但该任计划仍然执行了。而从执行输出结果是37分来看,这不是步快跑的踩过35分,而是第35分被越过了不存在。 这个坑很多,个人要和时间赛跑才能完成验,我做了8次验成功了3次,每次都等了10分钟以上。这个验也不够严谨,我只是拿crond做验,我在梦记得其他历史守规矩的程序也能和ntpd联动,但我没时间做验了,也希望朋友能帮我答疑解惑。 附录2:网上能找到一个写NTPD和ntpdate的水文和本文内容些类似,那个是我多年以前写的,不是借鉴和抄袭,严肃脸。
流****水 2018-07-11
度云企业级运维平台——NoahEE
物理操作维护怎样反应到系统? 不同角色(职责)的运维人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工单流程解决了上面的问题。系统自动探测故障放入故障池,并建立故障工单,由相应的人员进行操作。另外,NoahEE提供了不同的工单流程覆盖了日常机房运维的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所运维操作记录可追溯。了资产管理,运维人员可以在器完成入库、上架工单后即可在管理看到该器并进行管理,无须任何其他操作。一图胜千言,我们看看资产管理的特点: 图3 资产管理 部署管理 应用部署一直是运维工作的重点,一般来说,我们面临的问题: 批量部署难,怎样定位目标机器?如何快速部署? 灰度测试难,怎样通过灵活的部署方式,先进行流量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,际上在管理已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通过“分级发布”来解决。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何现的。 架构 整个系统由命令行工具、web及单机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行际任。涉及大包及不同网络环境的部署会进行转下载。 解决方案 各业线拥各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
s****d 2018-07-11
亿元级云用户分析
每个公司环境都不相同,他们可能强力推进项目,也可能暗地阻塞施,大部分情况下是被动拖沓进度,但合理引导很容易积极配合。他们的诉求更简单直白: 操作的简便清晰不出错 建设和维护的劳累程度 云IT技能的个人稀缺含金量 云对旧烂工作的解放 云对个人基础技能的替代 稳定故障清晰 汇报汇总展示方便 要想让IT技术执行人成为云厂商的好帮手,工程进度靠项目经理配合,资源协调靠销售配合,技术操作类诉求靠售前引导。 3.主体贩售资源分析 云供应商不可能靠软件和做到亿元销售额,只以资源为载体,客户才会给到亿元大单。这个观点跟前文的“资源可以用做计收载体,但不能做为上云目的分析”并不是冲突而是印证。 以软件和做亿元营收载体,采购决策人会承担巨大决议风险;但平庸的贩售资源又会陷入价格战和关系战之,云厂商追求市值和利润都不能讲这些老套路了。 我们先列出来些资源是单体贩售能过亿的,云厂商把这些资源和其他的软件资源做打包混淆集交付,云厂商就不是卖资源而是卖梦想了。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
软件BUG 相比客户自己粗选一个物理机的OS,云主机精选的虚拟机OS、宿主OS、Hypervisor的软件BUG并不多,大型云厂商都精选底层支撑软件的力,但客户装物理机自选的OS都可能驱动问题,三个精选软件的故障率没一个粗选软件更高。 但是从云资源的管理、调度、监控软件,到客户界面,API管理、账户和后台策略层面,越往上走的软件质量还不如XXXX,此处省略一万五千字,客户自己揣摩吧。 厂商深层原因 厂商报故障就跟滚刀肉挨揍一样,脸疼了就把屁股过来,屁股疼了就捏捏脸,一般不会按住一只羊使劲薅羊毛,毕竟云报障也要负载均衡。但客户自己心秆秤,厂商究竟是偶尔发挥失常还是烂泥扶不上墙,故障的性质对长久的品质很重要。 我列一下潜在的故障原因,些故障能忍,些故障不能忍,这些要云客户自己评估了。 技术原因 IaaS的核心主体功能(云主机、云硬盘、VPC),在没特型要求前提下,是可以用开源方案搭建。如果是云厂商连个开源平台标准模块都部署失败,那就该换厂商了;如果是偶发的BUG,那确客户要自认倒霉,因为友商也会遇到同样问题。
追****圣 2018-07-11
给书记省长讲清楚云计算
当云厂商看到商机肯合作时,我们要掌握各类云厂商的特点才能心数。 第一类是大型云厂商,他们自身很强的资源整合能力和执行销售能力。地方政企和这类企业合作的话语权很弱,但极风险就能看到收益。 第二类是创业云厂商,他们一般是靠技术优势和态度从大型云企手抢单子。地方政企和这类企业合作时很强的议价能力,注意不要盲目倾向技术优先的创业云厂商,而是选择态度和执行能力好的创业云厂商。地方政企很难确切搞懂厂商的技术些优势,而项目的推进落地都是要靠云厂商来执行的。 第三类是外企云厂商,这类厂商是被广阔的国市场吸引过来的,也兼顾外企国分部的客户。这类厂商在国内发展都不太顺,和他们沟通主要看他们什么合作诚意,是否穷极思变。 最后一类是系统集成企业,这类厂商已经地方政企几十年了。他们最大的优点和缺点都是为政府和国企为生,他们可以买技术搭建出云平台,但他们建好云平台的目的是再卖给本地政府和国企。这类企业需要完成从供应商到合作方的转变。 云计算不是万能药,它无法解决些问题。 在地方政企看来,云计算只是一种商业形式,不能对它报以不切际的期望值。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目前都荒废了,因为卡得一匹。
小****园 2018-07-10
让PB级云存储不再神秘
云存储不能违背商业的本质,甲方没蠢到敢让乙方赔钱做,但采购决策层更喜欢看谁的报价最低。数十PB的数据上云后基本下不来,平台方无论是提价还是降速,的是追加预算的手段;如果对方是赔本卖吆喝,成功了就会甩开这个包袱,失败了就直接倒闭。我谈PB级存储项目时,我很愿意分享不同底层技术带来的际成本构成,为什么同样的价格我们还能挣钱而友商已经在贴钱,相关内容会在第四章节详细说明。 成功案例是很重要的决策依据,但这个依据很难考证性。厂商做过PB级项目但其是一群TB项目做的计费融合,厂商确做过数百P的项目却和标准对象存储功能不通用,这类事情太多了,对象存储合同上不会总容量,发票存根也只是简单的信息费。客户的成功案例必须是单一命名空间容量达到PB级别,并简要说明文件数量和主要读写场景。考察案例性的方法主要靠听对方能否自圆其说,甚至让多个厂商当面质疑,能逻辑自治的厂商终归还是靠谱一些。 大客户对云端数据的处理的要求比客户更简单,因为复杂业功能可以自己做,还可以要求厂商为自己做定制开发。
布****五 2018-07-10
如何执行一条命令
另外一种就是交互式,通过telnet/ssh等方式远程连接器后,直接在命令行界面执行。虽然从形式上我们将命令传递分为了两种方式,但从本质上来说,器上的命令传递,都没逃脱网络传输这个过程。 命令执行(使) 对于操作系统来说,命令的执行,其就是启动一个进程并传递相应的参数,运行完成后得到相应的结果。这我们并不关心进程如何创建,PBC的结构如何等细节,我们只关心命令进程的启动方式以及结果的获取方式。 为什么要执行命令 在分布式产品的开发维护过程三个主题是无法绕过的,分别是配置管理、部署升级和监控采集。 配置管理 配置管理的目标是为了标识变更、控制变更、确保变更正确现并向其他关人员报告变更。从某种角度讲,配置管理是一种标识、组织和控制修改的技术。通常情况下,配置管理都会统一部署配置器来同步所节点的配置。但是在开发测试过程,总会出现临时修改某个或某一批节点的配置的情况,这时通过人工逐个登录来完成修改显然是不太可能的。 部署升级 DevOps的概念如今日趋流行,部署升级越发成为开发运维过程重要的一环,频繁的交互意味着频繁的部署。
w****t 2018-07-10
AIOps的四大金刚
在传统的自动化运维体系,重复性运维工作的人力成本和效率问题得到了效解决。但在复杂场景下的故障处理、变更管理、容量管理、资源过程,仍需要人来掌控决策的过程,这阻碍了运维效率的进一步提升。而AI方法的引入,使得机器能够代替人来做出决策,从而让正意义上的现完全自动化成为了可能。 在AIOps的落地施过程,最关键的因素还是人,即AIOps的建设者们。 AIOps作为一个全新的技术发展和应用方向,并不是简单地说具备某一种技能或招募一两个大牛就可以完成的,它需要不同角色、多个团队的配合才可以达成。根据近几年来整个业界对AIOps的理解和践,AIOps参与角色的划分也越来越清晰。在百度4年的AIOps,我们总结得出了如下四种不可或缺的角色: 运维工程师 运维研发工程师 平台研发工程师 运维AI工程师 可以看到,除了运维AI工程师外,其他角色并不是AIOps产生之后才出现的,他们在传统运维也发挥了重要作用。我们今天主要想和大家探讨一下,在AIOps时代,他们的职责究竟发生了些变化。为了方便大家理解,我们会基于百度AIOps的践案例,来进行具体说明。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
Kernel加载了所驱动后就会卸载initrd*.img,早期linux版本在系统启动过程还能看到很多“umount filesystem”的提示,那不是卸载正式文件系统,而是卸载了initrd*.img这个迷你系统, 6.Init进程启动,正式启动。 从看到“Welcome use CentOS”的彩色欢迎文字开始,init已经启动了。 在这之前的启动过程也就读取BIOS/MBR/GRUB和/boot分区,现在终于开始读/etc目录的配置文件了。 首先被读取到的是/etc/fstab,各个磁盘都挂载就位。这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是一个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那获取到IP地址,然后Mysqld等需要监听端口的启动失败。
m****t 2018-07-11
设计立公云云管平台
依赖虚拟IP和共享硬盘的传统群集,比如双主多从MYSQL,Keepalived+Redis,Heardbeat+DRBD+NFS,Oracle RAC。前文在LB阶段已经讲过VIP无法在VPC网络自由漂移,大部分云厂商又不太支持共享硬盘、心跳线等功能。云管平台可以集成这些资源应对型客户需求,也可以直接建议客户单机部署;重型用户需求产生了就不轻易变动,可以通过云管平台自主测试、云厂商定制开发、接入混合云物理机等方式来个案单独处理。 客户端旁观选举的自协商群集。最近十年出的新,以及一些老的Cluster版都在走向智能化群集的方向。以Mongodb为例,客户端会连接多个mongos和mongod,客户端旁观端选举和切换主节点,不依赖虚拟IP就现应用层高可用和负载均衡。云管平台可选接入厂商满足型客户需求,毕竟不用自己做维护;但遇到重型客户需求建议直接在高配虚拟机上自己搭,或者走混合云物理机接入VPC的模式。 不考虑高可用性的
若****客 2018-07-10
IT架构的本质--我的五点感悟
前端器压力大了就多做水平复制扩容,在网站类应用上,无状态-会话保持-弹性伸缩等技术应用纯熟。后端要群集化就是多做业拆分,常见的就是数据库拆库拆表拆键值,拆的越散微操作就越爽,但全局操作开销更大更难控制。 时改异步是我学的最后一门IT技术,绝大部分“时操作”都不是业需求,而是某应用无法看到后端和Peer状态,默认就要时处理结果了。CS模式的时操作会给支撑带来巨大压力,Peer合作的时操作可能会让数据申请方等一宿。架构师将一个无脑大事拆分成多个,这就是异步架构,但拆分事就跟拆分数据表一样,拆散的需要更高业层级上做全局事保障。 在群集性能规划,网络和硬盘IO+CPU算力+磁盘和内存空间是可以互换的,架构师要完成补不足而损余的选型。比如数据压缩技术就是用算力资源来置换IO和空间,缓存技术是用空间和IO来缓解算力压力,每个新选型都会带来细节上的万千变化,但每种变化都是符合自然规律章可循的。 一个经典微机系统就是央处理器+主存储器+IO设备,这几个概念居然和群集性能规划是一一对应。 3.
TOP