关于 数据库 的搜索结果,共178
b****z 2018-07-11
智能运维基础-运维知识之ETL
因此,如下图所示,我们采用另一种经典方法Federation(Lazy ETL)来实现集成:即运维知识处理用户查询时,直接调用接口去访问原始源,按schema转换后,返回给用户。 总结 本文主要介绍了百度云Noah智能运维产品中的运维知识之ETL。针对不同业务场景使用的,提供不同的ETL方式。针对离线建设,采用Pull ETL周期性从源获取,此外综合考虑接入收益和成本,提供了自适应ETL以及基于SDK的自定义ETL;针对时效性高的建设,采用Push ETL,源主动推送变更到运维知识中;针对实时建设,采用Lazy ETL,在查询时回源获取并进行转换。有对运维知识和ETL感兴趣的同学,欢迎留言探讨。
h****l 2018-07-09
时代下的隐私保护(二)
实际案例 在实际应用中使用差分隐私时需要考虑的问题还有很多,我们在介绍差分隐私的时候假 设所有的查询操作都由可信的处理,里存储着用户的原始。那么如果 被攻击了,包含用户隐私的原始就泄露了。 如果不收集用户的原始,在客户端上先做差分隐私,再上传给服务器,这个问题就 解决了。最近Google 率先使用RAPPOR 系统在Chrome 浏览器上通过这种方法收集 用户的使用情况。RAPPOR 基于“随机应答”(randomized response)的方法 保护用户的原始不被泄露,随机应答的流程如下: 当用户需要上报个人的时候,首先“抛硬币”决定是否上报真实。如果 是正面,则上报真实。如果不是,就上报一个随机的,再“抛一次硬币”决定 随机的内容。2. 服务器收到所有的后,因为知道“抛硬币”是正面的概率,服务器就能够判 断返回的是正确的概率。 这种“随机应答”的方法在理论上也被证明是服从 ε-差分隐私的。对于用户来说,隐 私在上报给服务器之前就已经加了噪声,从而具有一定保证。对于公司来说,也能 收集到有效的
M****H 2018-07-11
故障定位场景下的可视化实践
干货概览 百度拥有上百条产品线,十万的服务,每个服务时时刻刻都在产生着海量的监控,形成的监控项规模总已达十亿。面对如此海量的,在日常运维(如故障诊断、成本分析、性能优化等场景)过程中,传统的统计图表难以有效直观地展示如此庞大的。因此,优秀的监控可视化产品就呼之欲出,他既要准确、全面、时效性高,也需要提升用户的使用体验,使其能在茫茫中一眼就能发现想要观察的。 那么怎么做才能适应用户需求、完成精准展示,同时又能挖掘价值呢?下面我们从故障诊断的场景出发,来看百度智能监控平台是如何充分利用可视化武器来解决实际业务问题的。 故障定位可视化思路 在标准的故障处理流程中,故障定位一般可分为两个阶段: 故障止损前:期望可以快速获得可用于止损决策的信息,做出相应的止损操作使得服务恢复。比如通过确定故障范围,调度流量绕过故障机房或摘除故障实例等。 故障止损后:仍需要进一步找到导致故障的深层次原因,确定故障根因,将线上环境恢复到正常状态。
小****盈 2018-07-09
如何生成和发布Docker镜像?
发布docker镜像 默认情况下,如果执行下述指令,则镜像会被发布到Apolloauto/apollo上的Docker镜像中心: bash apollo_docker.sh push 使用者需要将镜像发布到个人的Docker镜像中心,否则会出现下述报错: denied: requested access to resource is denied. 可以执行下述指令解决该问题: docker tag apolloauto/apollo:TAG_NAME YOUR_REPO:YOUR_TAGNAME 现在可以通过查阅该网站(https://docs.docker.com/engine/reference/commandline/login/#options)提供的方法登录并且获取个人仓。 然后发布镜像到个人仓的Docker镜像中心。参考该网站(https://ropenscilabs.github.io/r-docker-tutorial/04-Dockerhub.html)获得其他支持性信息。
思****来 2018-07-11
重磅:构建AIOps的MNIST
正在路上… 除了上述已有功能,一大波更新正在路上,接下来还会有: 更快的加载速度,标注过程更加流畅:在原型实现中,包括、网络交互在内的诸多工程细节都没有进行针对性优化,导致标注中会出现轻微卡顿情况,这些卡顿将在下一版完整修复。 在线的标注工具,打开即用:在前期试用中发现,对于标注人员,从源代码开始部署一个服务比较麻烦。为了让使用者更加方便,我们会在收集足够意见反馈后整合出一个SaaS化的标注平台,让标注人员即开即用。 拉一大波标注出来祭天:在调研时发现,时序异常检测领域缺少一个类似MNIST的标准集,虽然有部分高校给出了一些集(如石溪大学的http://odds.cs.stonybrook.edu/),但是这些集过小,难以用于统计方法和机器学习方法建模。为了让更多有想法但是接触不到的同学有条件参与相关探索,我们将公开部分标注,和大家一起建设一个公共的标准集。 INVITATIONS 上文中提到的各种基础功能优化和辅助功能均通过插件的形式实现,大家可以参照给出的样例方便地编写适合自己场景的插件。
z****0 2020-08-31
百度网盘数据恢复
恢复前天百度下载
小****园 2018-07-10
让PB级云存储不再神秘
在写的时候,假设群集每秒接5000个创建文件的请求,在看来就是在表尾做5000条的appended操作;单台Mongodb只要做一些常识性优化,配块SSD盘轻松达到1万QPS,案例中的5000个写请求对没任何压力。 用户要读取单条Metadata的时候也只有文件名一个筛选条件,没有任何复杂的排序对比操作,这代表可以轻易分分表,25000个读请求分到4个实例还有压力吗? 任何都讨厌list操作,但存储计费和用户需求都会扫表。结合对象存储的list需求,我们可以做几个只读的从就可以查询99.9%的准实时,如果你怕从同步慢还可以单独做个最热表,在最热表上合并一下0.1%的新。当我们贴合场景去想,平台计费list操作不要求实时高精确啊,我给1000个文件晚计费1分钟很重要吗?一个客户要下载自己2000万条fileinfo信息,按5条信息1k算,这2000万条 fileinfo信息有4GB大,就算云存储能精确的0.1秒查完,客户有能力0.1秒下载完这些信息吗?
冰****蓝 2018-07-09
如何调节『控制参』?
这里我们将为开发者讲述如何调节控制参。 背景 一、输入/输出 输入 规划轨迹 当前的车辆状态 HMI驱动模式更改请求 监控系统 输出 输出控制命令管理canbus中的转向、节流和制动等功能。 二、控制器介绍 控制器包括管理转向指令的横向控制器和管理节气门和制动器命令的纵向控制器。 横向控制器 横向控制器是基于LQR的最优控制器。该控制器的动力学模型是个简单的带有侧滑的自行车模型。它被分为两类,包括闭环和开环。 闭环提供具有4种状态的离散反馈LQR控制器: 横向误差 横向误差率 航向误差 航向误差率 开环利用路径曲率信息消除恒定稳态航向误差。 纵向控制器 纵向控制器配置为级联PID+校准表。它被分为两类,包括闭环和开环。 闭环是一个级联PID(站PID +速度PID),它将以下作为控制器输入: 站误差 速度误差 开环提供了一个校准表,将加速度映射到节气门/制动百分比。 控制器调谐 一、实用工具 类似于诊断和realtime_plot可用于控制器调优,并且可以在apollo/modules/tools/中找到。 二、横向控制器的整定 横向控制器设计用于最小调谐力。
也****里 2020-08-29
百度carlife不能跟百度地图同步收藏夹非常不方便请改进!
啥时候同百度账号的情况下,百度carlife和百度地图历史轨迹同步到一起
笑****山 2018-07-10
监控专用对象存储的畅想
设计 元的优化压力不大,因为在应用场景和访问代理层面已经给元做足够减负。 元内容一般包括:filename、filesize、createtime、hash、filehandle、Mimetype,理论上来说除了Filename和Filehandle,其他属性都可以压缩和放弃,但放弃这些属性对元服务的性能提升不大,反倒是丧失了很多debug便利性。 通用场景的对象存储对Filehandle是一条递归记录还是多条并行记录、一层文件记录还是Trunk+文件记录,原始文件记录还是纠删码记录的选型研究很谨慎。而监控存储场景下写多读少、文件体积较小、文件可以预取、定期批量删除,做选型的难度会比通用存储小很多,场景简单也很容易做性能压测。 从系统架构上来看,元可以“均匀的”分读写,对回看读可以接受1s以上的延迟,几乎没有汇总管理和筛选类需求,其优化压力非常小。 存储池实现 存储池实现部分都是硬碰硬的干货了,科普文章只能谈三个问题的选型。 新手厂商可以技术降级,直接做本机RAID而不是做分布式存储。
5****a 2018-07-11
监控专用对象存储的畅想
设计 元的优化压力不大,因为在应用场景和访问代理层面已经给元做足够减负。 元内容一般包括:filename、filesize、createtime、hash、filehandle、Mimetype,理论上来说除了Filename和Filehandle,其他属性都可以压缩和放弃,但放弃这些属性对元服务的性能提升不大,反倒是丧失了很多debug便利性。 通用场景的对象存储对Filehandle是一条递归记录还是多条并行记录、一层文件记录还是Trunk+文件记录,原始文件记录还是纠删码记录的选型研究很谨慎。而监控存储场景下写多读少、文件体积较小、文件可以预取、定期批量删除,做选型的难度会比通用存储小很多,场景简单也很容易做性能压测。 从系统架构上来看,元可以“均匀的”分读写,对回看读可以接受1s以上的延迟,几乎没有汇总管理和筛选类需求,其优化压力非常小。 存储池实现 存储池实现部分都是硬碰硬的干货了,科普文章只能谈三个问题的选型。 新手厂商可以技术降级,直接做本机RAID而不是做分布式存储。
TOP