关于 小妹上门全套服务_薇V:78792796薇瑞安仙降一夜情phq 的搜索结果,共1466
1****2 2018-07-09
百度:AI 是系统工程 需要真正开放的护航
隔离不但影响了信息的互 通,也造成了诸多限制,引发了新的问题,比如Android App Store 不允许开发 者更换签名证书,如果开发者私钥被偷窃,他只能继续使用这私钥,眼睁睁看着偷得 私钥黑客发布冒名顶替的恶意App。应用开发者其实早就意识到了签名束缚之痛,只是目前应用较为广泛的签名证书更换手段(提示用户装新证书签名的新版本应用, 卓5.0 以可以自动升级等),要么用户体验极差,要么存在级攻击等风险。 为解决这个问题,百度开源了OASP 应用签名方案——种更、灵 活的密钥证书管理方案。它首创了应用状态在线查询机制,是种生态联防、去中心化的方案:开发者能及时提供应用状态;厂商能大规模扫描监控签名信息生成信 用信息,并在端结合信用信息判断App 是否恶意;应用商店可以收纳开发者提交的 应用信息,并定期下架有问题的App;设备厂商则能通过OASP 的签名机制进行额外的校验。 传输层面的 终端设备和云端通信的过程中,传输通道的性至关重要,旦被黑客恶意 劫持,设备和云端器的数据也就都处在风险中。
h****e 2018-07-10
程序:我从哪里来?
干货概览 在计算机程序或者的层次,我们来试着分析前面提到的几个问题。 问题 1.我是谁? 叫什么,包含了哪些实例,规模、部署况、实例运行状况如何? 2.我从哪里来? 游有哪些,不同的游流量如何分配? 3.我往哪里去? 的下游有哪些,不同的下游流量如何分配? 面对这样的问题,我们的答案是什么呢? 在百度的运维实践中,我们只需“BNS”就可以获得想要的答案。 BNS(Baidu Naming Service,百度名字)是百度云智能运维团队研发的分布式的名字系统,是百度云Noah智能运维产品中的个重要基础系统。它为每赋予个独无二的名字,根据这个名字,我们就可以获取到这个的相关信息 ,这些信息包括:在机器部署信息(机器IP,部署路径,配置,端口信息),的实例运行状况等其他重要信息。简单来讲,它提供了名到资源信息的个映射关系。
疏****月 2018-07-09
线Archer | 百度持续部署的士军刀
干货概览 业部署(熟称线)是运维领域最常见的业类型,主要涉及线代码变更、配置文件变更(数据变更由于其高频、大量的特点,我们已在数据传输文章《嗖的下,让数据自动生效》中专讨论过)。般的业线具有不定时操作、业部署况复杂、单机启停策略复杂等特点。在手工运维时代,运维人员需要花费大量精力进行此类重复性工作,且易于出错。从公布的数据显示,Google 70%的生产事故由线变更触发,如何减少变更过程中人为误操作,提供个灵活、稳定的部署系统是运维平台研发人员所亟需解决的问题。 基本介绍 在运维自动化的大潮下,百度运维管理平台Noah发布了线部署系统——Archer。Archer致力于提供产品线过程的可迁移发布解决方案,实现键完成机器初始化、部署、添加模块监控、添加CT任、动态数据文件的分发等过程的自动操作。在操作方面,Archer提供了命令行工具作为发起线的操作入口,这种设计模式也决定了其易于集成的特点。在DevOps流水线作业中,Archer可以作为个环节结合进整条测试发布流水线中。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
第二天 工程师们说:“这个系统必须运行稳定,性能卓越,支持跨平台(Linux、Windows、ARM)装,要做到同时管理万台器,点儿都不慌”。 第三天 工程师们说:“这个系统不能像士军刀,而应该重剑无锋、大巧不工,仅支持基础设施的维护管理,要能做到快速扩缩容!出现问题能立刻回滚,保障云环境的和稳定。” 第四天 工程师们说:“这个系统还要做到‘麻雀虽,五脏俱’!要为基础设施提供虚拟化容器隔离,应用部署,应用拓扑搭建和集群控制的功能。为应用的整个生命周期保驾护航,提供条龙。” 总之就是四个字,“轻”、“稳”、“专”、“”,对于这切,工程师们很满意。 于是百度云的工程师们结合百度历年来云计算的经验与技术沉淀,潜心打磨,匠心打造,最终强势推出新代私有云云基础设施管理引擎HALO。 Q:HALO是什么?
红****2 2018-07-10
故障自愈机器人,保你心好睡眠
单机房故障诱因众多不可避免 单机房故障诱因众多,详细复盘若干单机房故障发现故障诱因大致可以分为四类: 基础设施故障:物理机房故障、网络链路拥塞、流量转发基础设施故障等 程序缺陷:程序隐藏bug、程序性能严重退化等 变更故障:测试不充分的程序、配置、数据变更,人工临时介入的误操作等 依赖故障:第三方故障例如通用的认证、支付、存储、计算故障等 单机房故障止损可靠性与效率急需提升 人工处理场景下,运维人员通常选择7*24时值班,接收大量的报警,随时准备在紧急况下进行响应、决策、操作系列故障止损动作,尽量挽回损失,低故障影响。 但述解决方案会面临如下问题: 响应可能不够迅速:例如间报警 决策可能不够精确:例如新手OP经验欠缺,误决策 操作可能出现失误:例如止损命令错误输入 “机器人”处理场景下,单机房故障自愈程序可独立完成故障感知、决策、执行的完整故障处理过程,并及时向运维人员同步故障处理状态。运维人员的职责由处理转向管理,最终运维人员在低压力值班中保证稳定运行。
p****d 2018-07-11
单机房故障自愈--运维的春天
如果水位线提供的容量不足以满足止损,那我们期望使用两条中间的容量buffer,同时流量调度过程中进行分步试探,避免次性调度压垮。 基于快速熔断的过载保护 在流量调度时,建立快速的熔断机制作为防止过载的最后屏障。旦出现过载风险,则快速停止流量调度,低次生故障发生的概率。 基于级功能的过载保护 在流量调度前,如果已经出现对应机房的容量过载况,则动态联动对应机房的级功能,实现故障的恢复。 2业线止损策略需求差异大 【问题描述】 我们实现了基础的单机房故障流量调度止损算法,但在部分业线中仍存在较大的需求差异,比如: 分步动态调度需求:业存在充Cache的况,过程中能力低,需要控制切换速度。 优先级调度需求:产品对延迟敏感,止损时需要优先切到同地域机房;业于多个游,多个游的重要程度不同,优先保证重要稳定。 容量负载计算需求:请求成分不同,不同成分请求带来的容量负载不同。 这部分需求部分与业强相关,不具备通用性,另部分则存在不同产品线需求冲突的况。 【解决方案】 针对以问题,我们推出了故障止损流量调度策略开放框架。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启动过程
这个文件注释很简单但水很深,我们该用标签还是UUID来标识磁盘,文件系统自检功能要不要开,这都可以聊好几个时。 看看各的启动优先级也是个讲究多多的过程,iptables会比network先启动这类依存关系很好理解;但我也遇到过云平台的DHCP获取太慢,而云主机操作系统启动快、Network还没从DHCP那里获取到IP地址,然后Mysqld等需要监听端口的启动失败。 后记 以内容只能算精简科普版的Linux系统启动过程,正式版的启动过程可以写十万字,有兴趣的朋友可以自己查维基百科,或拿我说的关键字去百度搜索。 曾经我把这些技能当做资历,但现在大家都云了,它们就只是闲聊的谈资了。但客户云就能少招个研究这事的工程师,云确实也很有意义啊。 静人稀,沙子龙关好了气把六十四枪刺下来;而后,拄着枪,望着天的群星,想起当年在野店荒林的威风。叹口气,用手指慢慢摸着凉滑的枪身,又微微笑,“不传!不传!”----老舍《断魂枪》
s****7 2018-07-10
见微知著看技术误解——从裸光纤和NTPD谈起
NTPD是个时间同步,ntpdate是个时间同步命令。很多工程师都会采用Crond+ntpdate的方式同步时间,究其原因是“NTPD不太好用”。 而我不喜欢用ntpdate同步时间的工程师,NTPD是个体系化的,而ntpdate只是个动作,大部分人没做好为ntpdate这个动作负责。 正常的时间是个持续增长的向量,即老时间t1肯定于新时间t2,新时间t2也于最新的时间t3,而且t1必定会渐进增长到t2和t3。除了少数商业数据库自带时钟源以外,大部分业对系统时间是盲目信任,不相信t1会越过t2直接达到t3(即断档跃变),而t2减去t1会得到负数或者0(即时钟停滞和回逆)。 四、NTPD的优势 如果我们用ntpdate同步时间,可能会带来时间的断档跃变或者停滞和回逆。时间不稳会威胁到的程序健壮性和业性,甚至部分程序崩溃的稀里糊涂。 ntpdate只是个命令不是,它对远端时钟源是盲目信任;假设个根NTP不稳定,所有的器获得了错误的时间,虽然现在业层可以包容异常,不会出现算出负利息或倒扣费的况,但业混乱是免不了的。
流****水 2018-07-11
度云企业级运维平台——NoahEE
随着规模变大,人力成本等管理成本升,然而效率低下、可用性不升反等等都是非常可能出现的问题。百度对于这个问题给出的答案是,必须先要解决资源组织管理问题。简单的说,管理要解决的最核心问题就是如何对资源进行有效组织管理与定位: 图2 解决规模带来的问题 在管理这个地基打好后,我们再来回顾下面的例子。这个例子中,地图研发的同学就可以在运维平台中选中导航的模块进行升级,运维平台会通过管理来定位此次升级操作需要影响的机器并进行批量的操作。NoahEE中的所有运维系统,都以管理为基础来进行运维操作,例如在监控系统中,我们可以对导航模块(而不是单台机器进行操作)添加些指标采集任,并在定条件达成时报警。管理通过对资源合理的组织,极大的简化了运维操作,提升了运维效率。 资产管理 在机房里,各种各样的器、网络设备和设备7x24时的运转,为我们的业提供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运维人员的能力。怎样维护这些资产并记录信息,是个很重要的问题,搞得不好,这些资产可能变成运维人员的“包袱”,越多越头疼。
s****d 2018-07-11
亿元级云用户分析
1.云目的分析 大型云用户云的宏观目的和普通用户类似,但多角色多部的利益诉求非常复杂。 低成本:客户最直观的诉求,或者削减IT预算,或者同等预算下支撑更多的;其他客户诉求都难以清晰描述,唯独成本可以看发票和合同。 明确责任:客户不想承担各个IT系统的衔接和选型责任,相比软件厂商和系统集成商,云厂商的责任覆盖范围会更广泛些。 收拢数据:云本身并不碰业数据,但云是很好明确业数据存储位置的机会,云业改造是规范数据结构的理由。 求新图变:企业客户在气势如虹时要居思危,在困境危难之中穷极思变,IT技术是企业的潜在增长点甚至退路。 本文讨论的是有模糊度和利润空间的云计算项目,CDN和IDC资源可以用做计收载体,但不能做为云目的分析。亿元以器、CDN的订单很多但既无技巧也无利润,这些资源厂商也在跟云厂商学习如何包装项目。 2.客户角色利益分析 大企业多角色之间的利益诉求不同,所以表现形式也不同。我将客户三大角色列出来讨论,销售-售前-项目经理铁三角组合明确客户的诉求,才更好游刃有余的客户。
w****0 2018-07-11
单机房故障自愈-黎明之战
干货概览 在故障自愈机器人,保你心好睡眠文中,我们介绍了单机房故障自愈的必要性和解决思路。本文主要介绍单机房故障自愈前需要进行的准备工作,具体包括: 单机房容灾能力建设中遇到的常见问题及解决方法 基于网络故障及业故障场景的面故障发现能力 百度统前端(BFE)和百度名字(BNS)的流量调度能力 单机房容灾能力--常见问题 单机房故障场景下,流量调度是最简单且最有效的止损手段,但我们发现业线经常会遇到如下问题导致无法通过流量调度进行止损: 1.存在单点 描述:系统内只有个实例或者多个实例部部署在同物理机房的程序模块即为单点。 问题:单点所在机房或单点自身发生故障时,无法通过流量调度、主备切换等手段进行快速止损。 要求:浏览请求的处理,不能存在单点;提交请求的处理,若无法消除单点(如有序提交场景下的ID分配),则需要有完整的备份方案(热备或者冷备)保障单机房故障时,可快速切换至其他机房。 2.跨机房混联 描述:下游之间存在常态的跨机房混联。 问题:逻辑单元未隔离在独立的物理范围内,单机房故障会给产品线带来局性影响。
TOP