语音识别,让机器听懂这个世界

上一期《AI应用 | 从模仿到超越,视觉智能下一步会怎样进化?》,我们介绍了机器的“眼睛”——视觉识别,这一期我们来分析机器的“耳朵”——语音识别能力。

 

语音识别能带来什么?

 

  • 场景一。打开电视,不再需要遥控器,坐在沙发上说一声“打开电视”就可以尽情观赏。类似的场景,还有空调、机顶盒、音箱、机器人……

 

  • 场景二。跟朋友用手机聊天,打字太慢又不准确还浪费时间,语音输入实时转成文字,让朋友一目了然,比语音信息更直接。

 

从这两个简单的场景,你就发现,语音识别技术已经在社会生活的方方面面发挥作用。

 

“什么是语音识别?语音识别是完成从语音信息到机器可识别文本信息的转化过程。”

语音识别,像耳朵一样进化着

 

语音识别就是让机器拥有“耳朵”。当然,不是简单的给机器装台收音器就可以实现,它需要不断的进化。

 

这就好像是人的听觉系统的成长。一个出生的婴儿能听到声音,但是听不懂,往后随着年龄的增长,不断的学习、训练,能听懂的东西越来越多。

 

机器的语音识别也有类似的成长过程。

 

语音识别技术的研究最早可以追溯到上世纪50年代,当时的效果并不好。

 

直到21世纪初,特别是近10年,借助机器学习领域深度学习研究的发展,以及大数据语料的积累,语音识别技术才有了突飞猛进的发展。

 

如今,语音识别的正确率已经接近甚至部分超过了人类。比如,2017年,IBM、微软相继宣称自家产品的语音识别错误率接近了人类,人类的语音识别错误率大约为5.1%,而百度更是通过像百度大脑中语音语义一体化这样的技术,把语音识别错误率控制在了3%左右。 

封闭域识别:规定情境对话

 

根据识别内容的范围,语音识别可分为“封闭域识别”和“开放域识别”两大类。

 

封闭域识别,识别范围为预先指定的字/词集合,即算法只在开发者预先设定的封闭域识别词的集合内进行语音识别,对范围之外的语音会拒识。

 

因此,可将其声学模型和语言模型进行裁剪,使得识别引擎的运算量变小。并且,可将引擎封到嵌入式芯片或者本地化的SDK中,从而使识别过程完全脱离云端,摆脱对网络的依赖,并且不会影响识别率。

 

典型的应用场景是,不涉及到多轮交互和多种语义说法的场景。

 

比如,智能家居,主要指只能进行简单指令交互的智能家居和电视盒子,语音控制指令一般只有“打开窗帘”、“打开电视”等,或者语音唤醒功能“小度小度”。

 

开放域识别:放开了说,机器接得住

 

开放域识别,无需预先指定识别词集合,算法将在整个语言大集合范围中进行识别。

 

为适应此类场景,声学模型和语言模型一般都比较大,引擎运算量也较大。因此,业界厂商基本上都只以云端形式提供。比如,百度云就可以提供这样的产品。

 

具体而言,开放域识别按照音频录入和结果获取方式又可将产品形态分为3种:

 

  • 产品形态一:流式上传-同步获取,应用/软件会对说话人的语音进行自动录制,并将其连续上传至云端,说话人在说完话的同时能实时地看到返回的文字。

 

典型应用场景:语音输入法、实时字幕、语音笔记。

 

  • 产品形态二:已录制音频文件上传-异步获取,音频时长一般小于5小时。

 

典型应用场景:音/视频字幕配置、实时性要求不高的客服语音质检和语音内容审查等。

 

  • 产品形态三:已录制音频文件上传-同步获取,音频时长一般小于1分钟。

 

典型应用场景:语音搜索、更智能的机器人语音交互。

 

当前,百度语音识别技术已经全面开放,包括语音识别、长语音识别、远场语音识别、呼叫中心实时语音识别、呼叫中心音频文件转写五大类别,数十项基础技术,并服务于众多开发者。

 

通过这样的介绍,你大概了解到计算机的“耳朵”是如何练成的吧。如果在实践中,智能音箱这类产品听不懂你的话,你可以多说几遍,像对待孩子那样。只要这样,智能音箱就会越来越懂你。

收藏 评论(0)
分享到: