关于 香洲区前山妹子过夜服务〖10669708薇信〗 的搜索结果,共911
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次上,我们来试着分析面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署情况、实例运行状况如何? 2.我从哪里来? 的上游有哪些,不同的上游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的一套分布式的名字系统,是百度云Noah智能运维产品中的一个重要基础系统。它为每一个赋予一个独一无二的名字,根据这个名字,我们就可以获取到这个的相关息 ,这些息包括:在机器上部署息(机器IP,部署路径,配置,端口息),的实例运行状况等其他重要息。简单来讲,它提供了一个名到资源息的一个映射关系。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
在传统的运维方式中,由于故障感知判断、流量调度决策的复杂性,通常需要人工止损,但人工处理的时效性会影响的恢复速度,同时人的不可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部网络环境建设了基于智能流量调度的单机房故障自愈能力。结合外网运营商链路监测、内网链路质量监测与业指标监控构建了全方位故障发现能力,基于百度统一端(BFE)与百度名字(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意单机房故障时业均可快速自愈的效果。当此解决方案已覆盖搜索、广告、息流、贴吧、地图等众多核心产品的单机房故障自愈场景。 单机房故障频发影响业可用性 回顾近2年来各大互联网公司被披露的故障事件,单机房故障层出不穷。例如: 2015年6月某公司云港IDC节点电力故障崩溃12小时 2016年5月某公司杭州电接入故障,中断小时级别 2017年1月某业天津机房故障,数小时无法提供 2017年6月北京某处机房掉电,多家互联网公司受影响 单机房故障频繁影响业的可用性并且会给公司带来直接或间接的损失。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动
言 沙龙的镳局已改成客栈。东方的大梦没法不醒了。----老舍《断魂枪》 云计算大潮到来了,我把IT技术像五虎断魂枪一样收起来了。我不会将它压到箱底,偶尔我也会练练聊聊,纪念一下那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启动程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启动界面。 CPU和内存插得有问题器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存器一般有内存检测的功能,但256G内存的器启动的速度也太慢了,重启一分钟能启动的还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板引导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS引导,也有是UEFI引导,但从器用户看别也不大。 主板可选从USB/SATA/NIC这几类接口上获取引导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络引导一般是排在末位,硬盘引导就是通用的系统启动的方式。
s****0 2020-08-29
百度云主机网络延迟问题
是很买 打折买了几台器 目都荒废了,因为卡得一匹。
w****0 2018-07-11
单机房故障自愈-黎明之战
本文主要介绍单机房故障自愈需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的全面故障发现能力 百度统一端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通流量调度进行止损: 1.存在单点 描述:系统内只有一个实例或者多个实例全部部署在同一物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:上下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来全局性影响。同时流量调度也无法使得恢复正常。
追****圣 2018-07-11
给书记省长讲清楚云计算
综上所述,云计算就是将分散在各个公司的息技术资源汇聚到一个大平台,其兴起始于需求扩大而人力短缺,其未来发展趋势是通规模经营和数据共享,成为新型息化社会的技术基石。 云计算如何带动地方经济 云计算落地是要自建数据中心机房,我们一般称之为云基地,云基地在经济利益和社会影响上和传统工厂并不相同。云基地通俗易懂的展现形式就是开启数十万个高速运转的电脑铁皮箱,但这些电脑不用接显示器也不用人员现场操作,只要这些电脑能开机能上网就能对外。云基地和数字地产不完全相同,数字地产只装修好房,云基地关注用这些房做什么。 云基地是无烟工业,并不需要雇佣大量人口,对直接促进就业帮助不大;但云计算没有实体矿产投入和物品产出,只需要大量电力启动电脑也不会产生大量污染。 云基地像电视台和号塔一样,通产生和扩散数据息对客户提供,这些息的传输没有物流成本,光速直达全球每个角落。 因为云基地全球客户,所以云基地可创造极高的营收,但不能简单的计入地方政府的GDP。一个耗电三千瓦的机柜加附属空间占地5平方米,如果云计算资源全部售出,每年可产生20万元以上的营收。
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
时间不稳会威胁到的程序健壮性和业安全性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目任;假设一个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的情况,但业混乱是免不了的。我们就说联机调试分布式日志,几个节点的时间有错可能日志就看不懂了。 NTPD做时间调整会有效减少这类情形,它不是简单的龟速调整时间,而是有柔性时间调整策略,让时间线的跃变和调整尽量少影响业(详情见附录实验);也不会盲目任远端时钟源,甚至固执的拒绝同步时间。NTPD本机时刻有可能不对,但不会忽快忽慢甚至停滞,NTPD通多次收发包选择权威稳定的时间源,算出双方间的网络延迟,然后才会采新的时刻进行时钟同步。 五、误解的根源和影响 因为NTPD不盲从其他时间源,让老一辈IT人会留下NTPD不好用、不靠谱的误会。2005年个人测试用虚拟机的时间经常走慢,到2010年虚拟机还要防范时间停滞的Bug。即使你用物理机投入生产,网络延迟仍然不确定,且要观测NTPD同步效果需要时间。
布****五 2018-07-10
如何执行一条命令
面临的困难 命令行的三要素,也是如何执行一条命令行面对的三个问题,如文所述,对于单机环境来说,这三个问题在人的努力下已经被很好的解决。可是如果要在几十万台机器上每天执行几十亿条命令,同时保证时效性,保证执行成功率,保证结果正确收集,保证7*24小时稳定运行,就不是一件简单的事情了。所谓远行无轻担,量大易也难,在构建这样的执行系统的程中要面临诸多困难,此处举几个突出的例如下: 息存储问题:为了支持水平扩展,需要高效的内存数据库作为缓存。为了做到执行命令的可追溯、可统计,需要对执行的命令息持久化。日均几十亿的热数据,年均上万亿的冷数据,需要仔细选择存储方案。 任调度问题:为了达到在任意多台器上执行命令的要求,需要确定何时分发命令、何时回收结果以及怎么样的并发度批量下发。 消息传输问题:为了保证命令高效正确送达目标器,需要构建一个可靠的命令传输网络,使命令息在准确送达的提下保障传输的可靠与高效,毕竟百度的几十万台器分布在世界各地。 代理执行问题:为了更好的处理权限、单机并发等单机执行问题,需要在目标机构建执行代理,以应对单机的复杂执行环境。
流****水 2018-07-11
度云企业级运维平台——NoahEE
灰度测试难,怎样通灵活的部署方式,先进行小流量线上测试,待效果达到预期后再扩大部署? 回滚难,发现问题后怎样回滚? 上面的第一个问题,实际上在管理中已经解决了,也就是说管理帮我们完成了资源定位工作。其他的问题,NoahEE的部署管理模块通“分级发布”来解决。在部署管理模块中,我们可以方便的定义并发度、部署步骤、影响范围以及暂停操作等,在部署的程中发现问题即可暂停并回滚至之的状态。除了部署等操作,部署管理模块还提供了批量执行命令等操作(比如批量启停某一)。如图来总结部署系统的能力: 图4 部署管理 监控管理 在任何工作里,息掌握的全面与否往往关乎到工作的成败。“知己知彼百战不殆”这句话说的就是这个道理。运维工作中,监控系统就是这个让我们做到这点的关键。软硬件是否工作正常,出了问题是否能及时发现与报警,甚至是对异常事件等进行提预测,都仰仗监控系统。在NoahEE的监控管理模块中,你可以期待全面的各种监控相关功能,包括了采集Agent、强大的汇聚计算与指标派生、灵活的报警机制、高效的时序数据库(TSDB)等等。
M****点 2018-07-10
中国云计算现状——产品篇
SaaS产品已经出现并流行了十几二十年了, OA/ERP/CRM/邮箱/模板建站等等SaaS都是比各位读者从业年龄还长的老古董,最新流行的各种在线办公、协作、通话、众测等SaaS产品也不依赖云器,这些应用上云走公网和之走内网别并不大,用物理机和虚拟机别也不大。 狭义的云计算是企业,目标用户的是企业IT技术人员,而SaaS云的目标用户和IT人员只在Helpdesk时有关联。 从这一点来看,这些SaaS只是云平台的普通用户,和游戏、网站、APP、没有别。只要SaaS云没自建IaaS和PaaS的技术能力和意图,那他们就是客户而非友商。 四、物理机-混合云-云管平台 云主机是物理机的最好替代方案,但也有各种物理机无法被替代的场景需要继续用物理机。 某些云主机的超卖比高,性能太差,又因为各种原因不更换云厂商,那只能基于性能原因用物理机。 某些硬件特性虚拟机还没模拟出来,或者你模拟了我也不,比如说Oracle RAC就偏爱硬件存储。 某些非TCP/IP资源必须接专用板卡,比如说接电话网络的器,接专用器材的器,接加密狗的器。
雪****魁 2018-07-11
危险背后的机遇--云故障危机分析
有个客户非常任某个小云销售,他告诉该销售,虽然某大云有高层合作,某大云也说报价肯定比某小云低5%;但是某大云的机制有问题,出故障从来都是衙门话,每次故障都要客户去乱猜和背锅。最终这个单在客户执行层的暗助之下,该小云快速把业来并坐实站住了,这份暗中相助就是靠个人商誉带来的任。 我和大客户谈故障的时候,喜欢把详细故障原因刨析给客户,企业客户是讲道理的,不要把糊弄ToC用户的手段来对付ToB客户。面对意外故障,我们有心向客户证明,换了其他厂商也一样会挂;面对人为故障,踏实认错是对客户的最后尊重,而公开事实也是逼着内部不会重蹈覆辙犯同样的错误。 去大家卖IDC、CDN、器和软硬件积累的个人商誉,是可以应用到云计算领域的。而云的高科技光环褪去、产品同质化以后,企业的核心竞争力仍然是有商誉的销售-售-售后团队,这类人才永远是稀缺资源。 附录 请各位多琢磨评估本厂的云到底哪些组件是靠谱的,不要让赖你的客户受伤又受骗。
若****客 2018-07-10
IT架构的本质--我的五点感悟
在生僻业的规划实施程中,没人告诉我们该有哪些,我们只能靠摸透一个又一个访问逻辑图和数据生命周期,来摸索群集内有哪些角色和依赖关系。 架构师的核心技能包括画好访问逻辑和数据流量图,因为问题现状描述清楚了,问题就解决了一多半了。一个好的业访问逻辑图,不仅仅是几个圈圈几条线连起来,其息量大到包罗访问程的所有元素,也要详略得当高亮关键点。 5. 各环节都不可盲 容灾设计中都尽人事和听天命 整个IT系统中就没有可靠的组件,架构师既不能盲目任撞大运,又不能无限冗余吓唬自己,而是在尽人事和听天命之间做好权衡。比如TCP就是要建立可靠链接,而现在做性能优化的时候,大家又嫌TCP太笨重了。 业应用不可靠,如果该应用能快速重建也不阻塞其他应用,月级偶发的内存泄漏和意外崩溃都是可以接受的。 支撑性不可靠,对于大部分业,预估一年都不丢一次数据,SLA能到99.95%就可以了。 操作系统故障崩溃,现在商用系统内核都很稳定,一般故障都出在硬件驱动兼容性上,或者有些照本宣科的傻瓜乱改默认参数。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层托管平台的底层工具链,为PaaS平台提供稳定的底层部署。 通用场景 在百度内部,通用的部署系统需要适用于以下场景: 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种网络环境及大包部署; 提高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 架构 整个系统由命令行工具、web、中转及单机agent+部署插件几部分组成(如图2所示)。用户通命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通心跳获取任后,调用部署插件执行实际任。涉及大包及不同网络环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
TOP