关于 网络网赌注单异常财务系统维护不给提款怎么办qq9306> 的搜索结果,共1467
流****水 2018-07-11
度云企业级运平台——NoahEE
资产管理 在机房里,各种各样的服器、设备和安全设备7x24小时的运转,为我们的业供了硬件保障,是企业的重要资产。各种设备的物理损坏、升级、新增、搬迁等等都在考验着机房运人员的能力。这些资产并记录信息,是个很重要的问题,搞得好,这些资产可能变成运人员的“包袱”,越多越头疼。 对这些设备的运操作,通都涉及少的物理操作,比如说更换损坏的硬盘,增加内存条等等。这里涉及到几个要解决的问题: 故障如何及时发现?发现后由谁来进行修复? 物理操作样反应到里? 同角色(职责)的运人员之间如何协同操作? 对于故障处理与修复,NoahEE通过故障自动发现与工流程解决了上面的问题。自动探测故障放入故障池,并建立故障工,由相应的人员进行操作。另外,NoahEE供了同的工流程覆盖了日机房运中的操作,从设备采购入库、上架、机架变更,直到设备下架、出库全生命周期覆盖,做到所有运操作记录可追溯。有了资产管理,运人员可以在服器完成入库、上架工后即可在服管理中看到该服器并进行管理,无须任何其他操作。
h****e 2018-07-10
程序:我从哪里来?
在BNS中,服元表示一个服的实例集合,一般以三段式的结构表示,比如:server.noah.all,server表示服名,noah表示产品线,all表示机房名称,服元的名字在中是唯一的。 使用场景 在程序员的日工作,面临以下的场景: 场景 场景一:我是一名OP工程师,负责几十个模块的运,我需要登录部署服的机器排查问题,但是只知道服名,记住那多部署信息,? 场景二:我是一名RD工程师,我负责的服需要扩容,我的服是很多下游服的依赖,服的扩容通知下游模块? 场景三:我的服部署实例有一个出现故障了,我想对下游服屏蔽该故障实例,? 下面以一个简的例子来说明,假设一个模块名是Server,它的上游是Proxy服,下游是Redis服,当出现变更或者故障时,如何让上游感知到呢? 当新增上线实例、下线摘除实例或者实例发生故障时,BNS通过部署在机器上的客户端实时感知到实例的状态变化,同时新增和删除实例的变更情况会立即同步到分布式的缓存中,这样用户通过一个BNS名字就可以感知到下游的实例变化。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
干货概览 在大型互联公司中,机房故障因为其故障时间长、影响范围大,一直是互联公司运人员的心头之痛。在传的运方式中,由于故障感知判断、流量调度决策的复杂性,通需要人工止损,但人工处理的时效性会影响服的恢复速度,同时人的可靠性也可能导致问题扩大。 为了解决这类问题,我们针对百度内外部环境建设了基于智能流量调度的机房故障自愈能力。结合外运营商链路监测、内链路质量监测与业指标监控构建了全方位故障发现能力,基于百度一前端(BFE)与百度名字服(BNS)实现了智能流量调度与自动止损能力。同时,基于实时容量与实时流量调度自动止损策略与管控风险,实现了任意机房故障时业均可快速自愈的效果。当前此解决方案已覆盖搜索、广告、信息流、贴吧、地图等众多核心产品的机房故障自愈场景。 机房故障频发影响业可用性 回顾近2年来各大互联公司被披露的故障事件,机房故障层出穷。
w****0 2018-07-11
机房故障自愈-黎明之战
机房故障止损流程 一个完整的故障处理生命周期包括感知、止损、定位、分析四个阶段。 机房故障止损覆盖从感知到止损阶段,其中感知阶段依赖监控的故障发现能力,止损阶段依赖流量调度的调度能力。我们来具体看下百度的监控与流量调度是如何在机房故障止损场景中起作用。 故障发现:百度监控平台 百度监控平台,针对机房止损过程中的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。同时针对机房止损依赖的容量管理场景,供资源类监控采集,为容量规划、扩缩容供数据支持。实现从运营商外链路、百度内部设备/链路、服/实例、机器/容器的全方位数据采集与监控。满足机房故障、业机房故障的监控覆盖需求。 同时供一列数据分析方法。如智能检测、趋势预测、多度分析、关联分析、服和链路拓扑分析,实现故障的精准发现和定位。 故障止损:百度流量调度平台 针对百度的架构和业架构,我们将流量调度拆分为三层:接入层、服层、依赖层。 接入层:从外用户发起请求经过运营商到百度一前端(BFE)的过程,使用DNS实现外流量调度。
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
另外,Archer也可作为上层服托管平台的底层工具链,为PaaS平台供稳定的底层部署服。 通用场景 在百度内部,通用的部署需要适用于以下场景: 各业线拥有各自的包规范,语言、框架一,部署策略一致; 支持分级发布,及时拦截部署引入的线上故障; 业的多地域部署; 多种环境及大包部署; 高自动化效率,能够集成测试发布自动化流水线。 后面,我们将结合上面场景,向大家介绍百度持续部署是如何实现的。 服架构 整个由命令行工具、web服、中转服机agent+部署插件几部分组成(如图2所示)。用户通过命令行工具触发一次变更,在web端进行参数解析及任分发,对应执行机器agent通过心跳获取任后,调用部署插件执行实际任。涉及大包及环境的部署会进行中转下载。 解决方案 各业线拥有各自的包规范,语言、框架一,部署策略一致 为避免杂乱无章又规范的服代码及配置文件的目录结构,Archer规定了一套既灵活又完整的包规范。
思****来 2018-07-11
重磅:构建AIOps的MNIST
这是因为以bad case(误报、漏报)驱动的阈值调整会以偏概全、前后矛盾,导致整体的准确率和召回率很低。解决问题的最佳法是在上线前使用标数据对报警规则进行地评估。 另一方面,对于复杂场景的检测,大量准确的标数据也是使用计方法或机器学习方法建模的必要条件。 为了进行正数据建模和算法效果评估,我们需要获取大量准确的标数据,通时序数据可以从监控中方便地获得,标则需要人工完成。在数据标过程中主要有两类问题: 准确性:标人员通认识清晰,随着标进度的推进,判断标准很容易发生漂移。 标效率:数据占比很小,标时大量的时间耗费在检查正数据上,效率较低。 经过一列调研,我们发现已有的时序数据标工具较少,功能也比较简,仅供了趋势图展示、时段标、简参考线(天同比/周同比)等功能,对于解决标过程中的准确性和效率问题帮助有限。
l****m 2018-07-10
五年前的预言——2012年云计算时代的运职位展望
云计算的时代正在来临,运的工作也将在今后几年中发生翻天覆地的变化。 如果你是一个能自己做主的人,你必须看清形势顺势而为,在变革的时代埋头苦干仍然保证了你的正生活;如果你是一个弓骑兵,无论你勤学苦练都打过坦克手的;铁达尼号上的乘客无论多有钱,总是免了泡进海水里的。 首先,我作为一个运为何唱衰运这个职业。 我们运靠什能力在公司里自立哪? A.关心硬件和施工; B.关问题; C.擅长和服的调试; D.相对与架构师/DBA的价格优势; E.快速可靠的响应. 大家看看云计算能企业带来的好处。 A.硬件完全免; B.接近免; C.、服接近免; D.无论是硬件还是人力成本都很廉价; E.可靠性高于个人。 我们会发现,云计算的目标就是要做的比运人员更好,好到“用关心”的地步。从技术上来说,各大云计算运营商对通用的Web、RDBMS、存储 服都是可以做到很好的。运人员中一多半都是站运,这些运受到云计算行业的碾压性冲击,必然会波及整个运行业,以及因此衍生的培训、管理、硬件销售、IDC工作。
3****3 2018-07-10
百度智能运工程架构
框架:新的运开发模式 运开发框架基于这样一个抽象,就是如果我们把线上环境看做一个黑盒服,那我们对它的操作无非读写两类,所谓的写也就是操作控制流,是那种要对线上状态做一些改变的操作,我们说的部署、执行命令,都属于这一类;另一类是读,指的是数据流,也就是要从线上获取状态数据,并进行一些聚合计之类的处理,我们说的指标汇聚、检测、报警都在这个里面。通过运知识库,可以在这两种操作的基础上,封装出多种同的运机器人,对业供高效率、高质量以及高可用方面的能力。 根据操作流和数据流的同,我们把框架分成了两部分,最基础的是运执行框架,在这之上,加上分布式计算组件的支持,我们还建设了用于运大数据计算的计算框架。 1工程化 运开发框架开发者供一列的开发套件,除了包含了一列的基础能力,还包含了一个标准的运工程研发流程。 在过去,运研发采用简的开发-使用方式,缺少必要的测试。而现在,在代码开发阶段,可以通过执行框架,用一的操作接口库升研发效率。在测试阶段,开发套件供了测和仿真,简化测试环境搭建。
嘟****y 2018-07-11
大型企业适用的云平台账户体
前文是说册阶段的法承诺,到使用过程中云平台又会有各种奇怪的“资格认证”“功能审核”等问题。云平台要规避自册客户的政策法规问题和恶意欠费问题,但这和大客户有什?供应商用“认证”“审核”这类词跟甲方说话就是态度端正,这又是一句“客户你好,你要服从管理,爱审审,审就滚”。这类甲方的身份资料是公开的,也会恶意赖账,这时应该由乙方主动记录合规信息,后台透明完成功能开通,设置消费和透支上限。 假设客户是成长型公司,以前CEO创建的账户让员工继续使用。某天CEO被老婆打了一顿,因为他的购记录有“丽丽”订花和开房;或者警约谈该倒霉蛋,警告他要用盘传播非法视频;也可能CEO打开聊天工具,发现自己很多幼稚鸡汤文投资商。要误会是有人要整这个CEO,SSO点登录多项服,同事用混了账户也正。 如果客户放弃使用某云之后,原账户销滚动欠费几千万?云巨头们都是横向一体化经营,搞好会和客户有竞争,霸王册条下的法风险确实存在。 一个企业服的账户应该由客户册,而是供应商主动供,像IDC和CDN就会主动客户供查带宽的账户。
b****z 2018-07-11
智能运基础-运知识库之ETL
知识库中的数据 运知识库中包含了元数据(Meta)、状态数据(Status)、事件数据(Event): 运元数据(Meta)对运实体世界进行建模,包括运实体的属性、组成以及关联关等; 状态数据(Status)反应的状态,表征服的存活性、资源消耗或能力等; 事件数据(Event)描述对做的变更、服状态的等事件。 ETL架构 运元数据、状态数据、事件数据分布在几十个同的中,随着业的增长和相关断增加暴露出了以下几个问题: 数据分散,访问方式一致:同一类型的数据分散在多个同的,各同的访问入口; 数据术语、概念、模型一致:各使用的术语、概念、模型各相同,例如“应用”这个概念,每个或工具对于Application的理解都尽相同; 间数据没有建立关联:例如部署、监控和路由服等核心场景在运数据上没有打通,表现为部署平台、路由服、监控所使用的服管理机制各相同,三个间的数据难以关联,且无联动性。
w****t 2018-07-10
AIOps中的四大金刚
具体职责包括: 在AIOps时代,运工程师一方面需要熟悉运领域的知识,了解运的难题和解决思路;另一方面需要了解人工智能和机器学习的思路,能够理解哪些场景问题适合用机器学习方法解决,需要样的样本和数据,即成为AI在运领域落地实施的解决方案专家。 运AI工程师 在机房故障自愈场景中,运AI工程师将机器学习的算法与实际的故障处理业场景相结合,针对机房故障场景的风险点,进行策略研发与实验工作。如下图所示: 运AI工程师分别设计了如下算法策略来满足整个复杂故障场景的自动决策: 检测算法:解决故障发现时指标判断问题,基于AI方法实现较高的准确率和召回率,作为整个故障自愈的数据基础。 策略编排算法:基于当前线上的实际流量和服状态,设计损益计算模型,判断基于何种方式的操作组合或步骤,能够使整个自动止损带来收益最大,风险最小。 流量调度算法:基于线上服容量与实时流量情况,进行精确流量比例计算,防御容量足或准风险,并实现流量调度收益最大化。
p****d 2018-07-11
机房故障自愈--运的春天
2016年,百度大部分核心产品线已经实现了Level 2、Level 3的自动止损能力,但在场景覆盖与风险控制上仍存在足。由此,Level 4智能自愈方案应运而生。 机房故障自愈的架构 针对传故障自愈方案中存在的问题,我们构建了机房故障自愈整体解决方案。 自愈方案通过抽象、规范处理流程实现机房故障自愈的自动化,即将止损过程划分为一的感知、决策、执行三个阶段;同时通过运知识库解决基础数据、基础设施差化问题;通过策略框架支持智能化检测、策略编排、流量调度问题,同时支持用户自定义策略需求。实现机房故障自愈的标准化、智能化。 在机房故障自愈--黎明之战到的百度与业架构情况,我们将整体流量调度止损架构拆分为3层:接入层、服层、依赖层。 针对这3层的监控感知、止损决策与故障止损方式的同,将止损自动决策拆分为外止损自动决策与内止损自动决策。 外止损自动决策:覆盖接入层。基于外、内监控信号;触发外止损决策器进行止损决策;执行DNS流量调度止损。 内止损自动决策:覆盖服层、依赖层。
c****2 2018-07-10
个性化推荐(一)
背景介绍 在技术断发展和电子商规模断扩大的背景下,商品数量和种类快速增长,用户需要花费大量时间才能找到自己想买的商品,这就是信息超载问题。为了解决这个难题,个性化推荐(Recommender System)应运而生。 个性化推荐是信息过滤(Information Filtering System)的子集,它可以用在很多领域,如电影、音乐、电商和 Feed 流推荐等。个性化推荐通过分析、挖掘用户行为,发现用户的个性化需求与兴趣特点,将用户可能感兴趣的信息或商品推荐用户。与搜索引擎同,个性化推荐需要用户准确地描述出自己的需求,而是根据用户的历史行为进行建模,主动供满足用户兴趣和需求的信息。 1994年明尼苏达大学推出的GroupLens[1]一般被认为是个性化推荐成为一个相对独立的研究方向的标志。该首次出了基于协同过滤来完成推荐任的思想,此后,基于该模型的协同过滤推荐引领了个性化推荐十几年的发展方向。
小****园 2018-07-10
让PB级云存储再神秘
回收空间的性能 前文到数据都是顺序写硬盘,这样文件删除时回收空间很慢,但4T盘浪费50%的空间也比买15K盘或者SSD合算,某些小规模或超有钱云存储都没做回收空间这个功能。 当文件有计划内滚动删除需求需求,比如说互联安防监控,一般是用两副本或副本群集扛性能,为回收空间要浪费50%空间,也有公司在开发快删专用的环形存储结构。如果数据进了纠删码才被删掉,比如说走了个PB级相册客户,那浪费磁盘空间的损失可能要持续半年以上。 数据去重问题 对象存储做数据去重功能,看着简的功能背后都有蛛一样的复杂考量,元数据服、计费服、存储服、增数据逻辑、删数据逻辑、回收空间逻辑、用户资源隔离逻辑都会因为这个很炫的功能被彻底改变。真正要去重的文件就是那些电影,随着版权保的加深,电影只存原片盗版减少会是趋势,其他文件即使做切片去重,命中率也非低。我们供hash值让客户判断该该删文件,该该做文件映射就够了。 长周期软硬件换代 对象存储是付费企业级服,并是终身免费但匆匆关张的个人盘。我们必须考虑十年为刻度的长周期问题,某种硬件停产了,假设内核停止
TOP