关于 如何通过线下活动精准引流 鑫光芒推广〖_q扣89651584〗 的搜索结果,共1136
f****8 2018-07-09
调试Dreamview启问题?
,按r和enter键运行,果Dreamview崩溃,然后用bt获得回溯。
C****X 2018-07-10
群雄逐“图”,百度缘备受关注?
关于轮测距器(Wheel Odometer), 一般可以轮测距器算出无人车的位置。 汽车的前轮果安装了轮测距器,分别会记录左轮与右轮的总转数。分析每个时间段里左右轮的转数,就可以科学算出车辆向前走了多远,向左右分别转了多少度等。 GPS,主要任务是确定四颗或更多卫星的位置,并计算出它与每颗卫星之间的距离,然后用这些信息使用三维空间的三边测量法算出自己的位置。 激雷达(LiDAR), 学雷达向目标物体发射一束激,然后根据接收——反射的时间间隔来确定目标物体的实际距离,随后根据距离及激发射的角度,简单的几变化可以导出物体的位置信息。 LiDAR系统一般可以分为三部分,分别是激发射器,发出波长为600nm到1000nm的激线;扫描与学部件主要用于收集反射点距离与该点发生的时间和水平角度(Azimuth);感部件主要检测返回的强度。
不****主 2018-07-09
地图
Apollo高地图的构建 高度地图的构建由五个程组成:数据采集、数据处理、对象检测、手验证和地图发布。 数据采集是一项庞大的密集型任务,近300辆Apollo测试车辆负责收集用于制作地图的源数据,以便确保每次道路发生改变时,地图均会得到快速更新。测试车辆使用了多种传感器,GPS、IMU、激雷达、摄像机。Apollo定义了一个硬件框架,将这些传感器集成到单个自主系统中,支持多种类的传感器,Apollo收集各类数据将这些数据融合,最终生成高度地图。 数据处理指的是Apollo对收集到的数据进行整理、分类和简,以获得没有任语义信息或注释的初始地图模板。 对于对象检测,Apollo使用人工智能来检测静态对象并对其进行分类,其中包括车道线、交标志、甚至是电线杆,手验证可确保自地图创建程正确进行并及时发现问题。Apollo使手验证团队能够高效标记和编辑地图,在经数据采集、数据处理、对象检测、手验证之后,高地图才能发布。 除高地图外,Apollo还发布了采用自上而视图的相应定位地图、三维点云地图。
p****d 2018-07-11
单机房故障自愈--运维的春天
这部分需求一部分与业务强相关,不具备用性,另一部分则存在不同产品线需求冲突的情况。 【解决方案】 针对以上问题,我们出了故障止损量调度策略开放框架。支持用户根据业务需求自定义策略实现。同时将较为用的策略开放为插件,使业务线可以根据需求自由插拔策略。 基于以上两点,结合智能运维开发框架(详见AIOps时代,你备好了吗?),单机房故障自愈框架无缝支持不同业务线,使得研发者可以更关注策略本身,而无需关注不同业务线运维模型、底层平台适配成本。 总结 单机房故障自愈系列文章,我们详细介绍了单机房故障止损的必要性、备工作,并构建了基于容量态分步量调度的单机房故障自愈框架,实现自化智能化故障止损。对整体单机房故障自愈解决方案不同阶段的改进总结
疏****月 2018-07-09
一键上线Archer | 百度持续部署的瑞士军刀
用场景 在百度内部,用的部署系统需要适用于以场景: 各业务线拥有各自的包规范,语言、框架不统一,部署策略不一致; 支持分级发布,及时拦截部署入的线上故障; 业务的多地域部署; 多种网络环境及大包部署; 提高自化效率,能够集成测试发布自线。 后面,我们将结合上面场景,向大家介绍百度持续部署是实现的。 服务架构 整个系统由命令行工具、web服务、中转服务及单机agent+部署插件几部分组成(图2所示)。用户命令行工具触发一次变更,在web端进行参数解析及任务分发,对应执行机器agent心跳获取任务后,调用部署插件执行实际任务。涉及大包及不同网络环境的部署会进行中转载。 解决方案 各业务线拥有各自的包规范,语言、框架不统一,部署策略不一致 为避免杂乱无章又不规范的服务代码及配置文件的目录结构,Archer规定了一套既灵又完整的包规范。
红****2 2018-07-10
故障自愈机器人,保你安心好睡眠
具体程为自愈程序搜集分散的运维对象状态数据,自感知异常后进行决策,得出基于态编排规划的止损操作,并化运维操作接口执行。该解决方案策略和架构解耦,并且托管到高可用的自化运维平台之上,实现了业务在任意单个机房故障情况皆可自愈的效果。 截至目前该方案已覆盖百度大多数核心产品,止损效率较人工处理提升60%以上。典型案例: 在8月28日某产品在单机房故障发生后1min55s完成止损。 在后续文章中我们会继续介绍单机房故障自愈的更多详细内容,敬请期待! 单机房故障容灾能力的建设 在容灾能力建设中有哪些常见问题? 证明服务已经具备单机房容灾能力? 单机房故障人工止损方法 人工止损时感知服务故障? 人工止损时收集故障信息? 人工止损时进行量调度? 单机房故障机器人止损方法 设计单机房故障自愈整体方案? 降低量调度风险? 应对不同业务量调度策略和平台的差异?
M****H 2018-07-11
故障定位场景的数据可视化实践
我们故障定位的思路也是此,从整体到局部逐步分层钻定位。 我们提供了多维度展开报表功能支持这种钻分析。 例我们怀疑是某几台服务器导致的拒绝量上升,我们可以基于多维度统计报表,点击排序找到拒绝最大的区域,然后依次展开找到拒绝最大的机房和机器。 点击详情后,我们就可以跳转到机器对应的页面,查看对应机器的详细数据来进行定位。 找寻关联事件定位 根据历史经验,大多数的线上故障都是由于变更操作所起的,包括程序、数据、配置等变更事件,增删机器实例、执行预案等运维事件,甚至包括可能量突增的运营事件。对于某些体积庞大的产品线,开发和维护人员众多,以上事件的发生更是千丝万缕、错综复杂。 面对这个问题,我们设计并出了一种可以解决这种问题的用性组件——事件图。 事件图,可以快速筛选出故障的前后时间,发生或发生中的事件,每个事件色块的长短位置,展示了开始结束时间以及持续时长。我们可以快速的分析出对应时间的故障可能是由于某些操作开始或操作完成发的。 对于部分业务线,同一时间段发生的事件可能有上百甚至上千条,我们提供便捷的筛选功能来解决这一问题。
w****0 2018-07-11
单机房故障自愈-黎明之战
单机房故障止损覆盖从感知到止损阶段,其中感知阶段依赖监控系统的故障发现能力,止损阶段依赖量调度系统的调度能力。我们来具体看百度的监控系统与量调度系统是在单机房故障止损场景中起作用。 故障发现:百度监控平台 百度监控平台,针对单机房止损程中的可用性场景,覆盖故障发现、止损决策、问题定位各阶段的监控。同时针对单机房止损依赖的容量管理场景,提供资源类监控采集,为容量规划、扩缩容提供数据支持。实现从运营商外网链路、百度内部网络设备/链路、服务/实例、机器/容器的全方位数据采集与监控。满足网络类单机房故障、业务类单机房故障的监控覆盖需求。 同时提供一系列数据分析方法。智能异常检测、趋势预测、多维度分析、关联分析、服务和链路拓扑分析,实现故障的发现和定位。 故障止损:百度量调度平台 针对百度的网络架构和业务架构,我们将量调度拆分为三层:接入层、服务层、依赖层。 接入层:从外网用户发起请求经运营商网络到百度统一前端(BFE)的程,使用DNS实现外网量调度。 服务层:从BFE量转发至内网服务的程,使用BFE提供的GSLB态负载均衡进行量调度。
雾****士 2018-07-09
添加新的控制算法?
三、注册新控制器 要激Apollo系统中的新控制器,请在文件中的“ControllerAgent”中注册新控制器:modules/control/controller/controller_agent.cc 按照示例添加注册信息: void ControllerAgent::RegisterControllers() { controller_factory_.Register( ControlConf::NEW_CONTROLLER, []() - Controller * { return new NewController(); }); } 在完成以上步骤后,您的新控制器便可在Apollo系统中生效。 以是本文章在Github上的Apollo模块的连接。后续我们还会发布更多的 Github 技术干货哦。 https://github.com/ApolloAuto/apollo/blob/master/docs/howto/how_to_add_a_new_control_algorithm_cn.md
j****2 2018-07-10
百度大脑开放日来袭 24种全新AI能力呈现
广、更快、更的AI技术 深度学习是AI发展的燃料。百度在深度学习领域深耕已久,2016年,百度开源了深度学习框架PaddlePaddle。此次,PaddlePaddle迎来两方面重大更新,核心框架Paddle Fluid v1.3新增发布业界首个视频分类模型库,新增支持NLP语义表示BERT模型,分布式训练性能大幅提升,大规模稀疏参数服务器Benchmark发布;同时,基于PaddlePaddle的深度强化学习框架PARL,夺冠NeurIPS 2018。具有高灵性和可扩展性,支持可定制的并行扩展,覆盖DQN、DDPG、PPO、A3C等主强化学习算法. 目前,百度PaddlePaddle已对外开放超50种经工业场景验证的官方模型,例,领邦利用PaddlePaddle,ICNet语义分割模型识别密零件瑕疵,实现零件自分拣。 在深度学习基础之上,百度大脑用AI能力开放涵盖语音、视觉、自然语言处理、知识图谱等全面AI技术。
思****来 2018-07-11
重磅:构建AIOps的MNIST
果用户每次载入曲线都要设置一次y轴区间,无疑是很麻烦的。针对这种问题,我们在工具中添加了离群点自判断功能,排除离群点之后,我们就能找到合适的y值区间,让用户看到合理的曲线形态。 默认Y轴取值范围 基于离群点检测的Y轴取值范围 大尺度数据采样 我们标注时常会先浏览数据来初步了解数据的分布,标注时也常常先寻找大致的异常区间再仔细标注。这种浏览的尺度比较大,由于屏幕分辨率远低于数据点数,不可避免地要进行采样或聚合,常用的均值方法会平滑周期内的尖峰和低谷,降低异常幅度,影响标注工作。针对这种问题,我们在工具中提供了最大值、最小值采样方法,可以适应上溢、溢异常场景,在标注时暴露出完整的异常幅度,解决采样带来的失真问题。 辅助标注功能 在其他时序数据异常标注工具中,常提供了天同比、周同比参考线或恒定阈值线,这些参考线在一定程度上满足了标定人员参照历史数据的需求,但是面对单调上升指标(用户数量)、预期内突增(量)等个性化场景提供的帮助比较有限。针对这个问题,我们开放了参考线生成功能,可以根据场景自行编写插件添加参考线
Z****E 2018-07-09
产品迭代的最后一公里
变更面临的问题 其实我们对变更的需求并不复杂,作为迭代的最后一公里,我们只关注两点: 操作程足够快捷(效率) 变更结果符合预期(安全) 但是,在具有一定规模企业的生产环境中,用户往往要面对比单台机器手工上线更加复杂的状况,在这些状况上述两点要求常难以满足: 大批量机器的操作步骤繁琐,较依赖人的经验,变更操作效率低; 由于缺少可靠的检查机制,变更效果无法保证,甚至线上较大异常。 我们在百度各核心产品的大规模变更实践中积累了丰富的经验,发现化部署可以有效提升变更效率,在变更程中严格执行分级发布程可以确保检查机制得到执行,并且能够有效限制异常影响范围,加速异常恢复。在两者基础之上,融入AIOps智能变更策略,可以进一步降低管理成本,提升检查效果。面将从三个方面详细介绍我们的解决方案。 我们的解决方案 1自化部署 自化部署包含变更策略和批量机器执行能力两部分。具体来说,用户UI/API配置整个变更程的执行策略,例先执行A地域机器的变更,再执行B地域机器的变更;执行失败的机器超10台就自中止等。
小****盈 2018-07-09
生成和发布Docker镜像?
可以执行述指令解决该问题: docker tag apolloauto/apollo:TAG_NAME YOUR_REPO:YOUR_TAGNAME 现在可以查阅该网站(https://docs.docker.com/engine/reference/commandline/login/#options)提供的方法登录并且获取个人仓库数据。 然后发布镜像到个人仓库的Docker镜像数据中心。参考该网站(https://ropenscilabs.github.io/r-docker-tutorial/04-Dockerhub.html)获得其他支持性信息。
亚****啦 2018-07-11
IT断魂枪--闲聊Linux系统启
我不会将它压到箱底,偶尔我也会练练聊聊,纪念一那个搞技术的黄金时代。 本文聊个很有嚼头的技术问题,Linux系统的启程,当我们不用自己安装系统以后,丧失了这么多乐趣。 正文 1.主板加电和硬件自检,就是开机第一屏启界面。 CPU和内存插得有问题服务器会滴滴乱叫,而网卡和硬盘插不插都无所谓,因为这些外设都不属于经典的计算机系统。 早期小内存服务器一般有内存检测的功能,但256G内存的服务器启的速度也太慢了,重启一分钟能启的服务还能恢复,重启三分钟可能群集性状就变了,所以我们经常顺手就把他关掉了。 2.读取主板导配置,现在终于要从外部设备读取数据了。 主板大都是BIOS导,也有是UEFI导,但从服务器用户看区别也不大。 主板可选从USB/SATA/NIC这几类接口上获取导数据,而且可以排队式加载,第一个加载不成功就尝试第二个。系统安装镜像都有个防止误操作的倒计时,而网络导一般是排在末位,硬盘导就是用的系统启的方式。 爱折腾桌面电脑的朋友从这一步开始就玩双系统/WINPE/U盘版Ubuntu/无盘工作站了,还好服务器维护人员比较单纯专一。
h****e 2018-07-10
程序:我从哪里来?
部署在机器上的客户端感知到实例的状态变化(比实例状态由0变成-1,即正常变成非正常),并将数据同步到系统中的分布式缓存,上游模块可以查询redis.noah.all的实例状态结果,主滤非正常的实例,也可以在BNS系统中发起屏蔽故障实例的操作,在查询程中会自滤该故障实例。 在一节中将具体介绍BNS系统的整体架构。 基本架构 BNS系统主要包含几个部分:量接入层,Web Server,存储层,代理客户端。 作为一个底层的基础服务,BNS系统每天的访问量近千亿次,这对系统的可用性提出了很高的要求,因而系统需要在各个层面有完善的容灾能力和量管控能力。 1量接入层 系统HTTP接口对外提供变更服务,用户Web页面或者接口进行服务或实例信息注册。为了保证平台稳定和安全的运行,需要对非法和异常请求进行拒绝,在量接入层(Proxy)端提供了以两个功能: 量鉴权:每一个服务组、服务单元、实例的注册都需要进行权限验证,用户只有申请了合法的Token才能允许访问,另外系统还提供了白名单等其他的鉴权方式。
k****0 2018-07-09
使用Python SDK开发语录类技能模板
此技能模板是针对语录类技能设计的模板,海贼王语录,游戏语录等。本文从技能交互、部署讲述快速搭建海贼王语录技能。 语录类技能模板的交互模型 语录类技能跟用户的交互很简单。用户说“来一个”,技能从语录列表中选取一条读给用户,用户可以继续说“来一个”继续听语录,或者说“退出”以结束交互。 使用模板开发技能的程 新建技能 新建技能详情请参阅自定义技能创建 配置意图 意图配置详情请参阅意图、常用表达和槽位 语录类技能模板需要创建“获取语录”意图。获取语录意图图所示: 配置技能服务部署 语录类技能模板使用CFC部署技能服务。使用CFC部署技能服务详情请参阅 百度云CFC 修改CFC函数代码 开发者模板创建函数以后,可在线编辑函数。
金****洲 2018-07-10
混乱的集群遇见TA 从此岁月静好
Q可以做虚拟化资源限制基础设施不占用多的机器资源吗? Q先部署小批量机器,确认无误之后,再做全集群部署?简而言之,灰度发布。 Q新到位10000机器,高效部署最新的基础设施?使集群中所有机器环境同质化? 管中窥豹,我们可以发现果在私有云或者混合云场景中还是人肉运维的方式管理,那么管理效率将会十分低,并且其中重复繁杂的操作,难以保证云环境的稳定性和安全性。急人之所急,需人之所需。百度云的工程师们便展开了一场头脑风暴...... 原始太初 私有云中存在大规模的机器集群,集群中一片空虚混沌,渊面黑暗,仅有字节在其间穿梭。为有效地管控体量庞大的集群,合理分配资源,降低运维成本,保障云上服务穿越狂风暴雨,工程师们意识到:“必须要有一个优秀系统来管控这混沌的集群世界!” 第一天 工程师们说:”这个系统要代表操作系统的意志!占用资源少!对外部系统零依赖!装机自带!要能自升级和自保!“。当裸机启之后,这个系统便以root身份运行,能保自己,还能托管维护其余基础设施,后续迭代升级也能自完成,整个程高度自化,不需要人工介入,极大地降低运维成本。
TOP