语音交互的三驾马车:ASR、NLP、TTS

产品老司机手把手教写文档,10天线上课程,零基础掌握产品经理必备7大文档撰写法。了解一下>

语音交互是AI最重要的领域之一,也是目前落地产品比较成熟的领域,比如说智能客服、智能音箱、聊天机器人等,都已经有成熟的产品了。语音交互主要由哪些部分组成?各自主要处理什么任务?目前都遇到什么困难?本文将跟大家一起探讨下。

01  语音交互的组成

我们以一个智能音箱的例子来开始今天的讨论:

假设我们对智能音箱天猫精灵说“放一首周杰伦的《晴天》”。天猫精灵就会说“好的,马上为你播放周杰伦的《晴天》”,并且开始播放音乐。

这个过程猫精灵都做了些什么?

首先,天猫精灵把听到的声音转化成文字,然后理解内容,最后做出相应策略,并把响应策略转化成语音。

因此,语音交互就可以成以下这三个模块:

  • 语音识别(Automatic Speech Recognition):简称ASR,是将声音转化成文字的过程,相当于耳朵。
  • 自然语言处理(Natural Language Processing):简称NLP,是理解和处理文本的过程,相当于大脑。
  • 语音合成(Text-To-Speech):简称TTS,是把文本转化成语音的过程,相当于嘴巴。

下面我们就来详细的介绍每一个模块。

02 语音识别(ASR)

通常语音识别有两种方法:

  • “传统”的识别方法,一般采用隐马尔可夫模型(HMM)
  • 基于深度神经网络的“端到端”方法。

两种方法都需要经过“输入—编码—解码—输出”的流程。

2.1 编码

编码就是把声音转化成机器能识别的样式,即用数字向量表示。

输入的声音信号是计算机没办法直接识别的,首先需要将声音信号切割成一小段一小段,然后每一小段都按一定的规则用向量来表示。

2.2 解码

解码就是把数字向量拼接文字的形式。

首先,将编译好的向量,放到声学模型中,就可以得到每一小段对应的字母是什么;

然后,把翻译出来的字母再经过语言模型,就可以组装成单词了。

当然声学模型和语言模型也是个神经网络,是通过大量的语音和语言数据来训练出来了,在这里就不展开讲了。

这里来个脑暴:

神经网络能不能做到,不需要编码和解码的过程,不需要声学和语言模型,直接把声音信号丢到神经网络里去训练,最后输出结果就是文字,具体中间过程是怎样的,让机器自己去学。如果这样能实现,我觉得很酷,看起来是不是真的很智能。

03 自然语言处理(NLP)

NLP是语音交互中最核心,也是最难的模块。

NLP主要涉及的技术有:文本预处理、词法分析、句法分析、语义理解、分词、文本分类、文本相似度处理、情感倾向分析、文本生成等等。但不局限于这些,涉及的技术比较多,且比较复杂。下面我们就挑几个主要的技术点简单聊下。

3.1 文本预处理

1)去噪声:

只要跟输出没有关系的我们就叫噪声,比如:空格、换行、斜杆等。

去噪声后,文本变得更加规范化,不会出现各种乱七八糟的符号,对于后续的处理非常重要。

2)词汇归一化

这个在处理英文文本时比较常用,如“play”,“player”,“played”,“plays” 和 ”playing”是“play”的多种表示形式。虽然他们的含义不一样,但是上下文中是相似的,可以把这些各种形式的单词归一化。

归一化是具有文本特征工程的关键步骤,因为它将高纬特征(N个不同特征)转化成低维空间。

3.2 词法分析

1)分词

分词就是把一个句子,切分成多个词汇。

比如:输入“明天深圳的天气怎样?”,这个句子就会被分成“明天/深圳/的/天气/怎样”。其中“明天”、“深圳”、“天气”就是这句话的关键词,通过关键词去匹配内容。

2)实体识别

实体提取:是指在一个文本中,提取出具体特定类别的实体,例如人名、地名、数值、专有名词等。

比如:输入“詹姆斯在NBA打了多少年”,其中“詹姆斯”就是实体词,计算机可能就可以通过当前的时间和詹姆斯加入NBA的时间给出他在NBA的球龄。

实体识别在信息检索、自动问答、知识图谱等领域运用的比较多,目的就是告诉计算机这个词是属于某类实体,有助于识别出用户意图。

3.3 文本分类

主要目的是为了将文档(文章)的主题进行分类,比如说是属于经济类、体育类、文学类等等。

解决文案分类问题,比较经典的算法是TF-IDF算法。

TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。

比如说“NBA”这个词在一篇文章中出现的次数比较多,但又很少在其他文章中出现,那这篇出现多次“NBA”这个词的文章很可能就是体育类文章。

3.4 文本相似度处理

文本相似度通常也叫文本距离,指的是两个文本之间的距离。文本距离越小,相似度越高;距离越大,相似度越低。

比如:用户输入“这件衣服多少钱”或者说“这件衣服怎么卖”,这都是很口语化的句子,那要怎么给用户返回“衣服价格”呢?就是根据文本相似度处理的。

需要我们计算出“多少钱”、“怎么卖”跟“价格”的相似度,然后根据相似度去匹配最佳答案。

应用场景:推荐、排序、智能客服以及自动阅卷等。解决之前只能靠关键词精准匹配问题,识别语义,扩大了应用的范围。

3.5 情感倾向分析

情感倾向分析,主要分为两大类:情感倾向分类、观点抽取。

1)情感倾向分类

情感倾向分类是识别文本的情感倾向,如:消极、积极、中性。

比如:“这家餐馆不错,服务态度好、价格便宜”,整个句子是积极的评价。

情感倾向分类对给用户打标签,给用户推荐内容或服务,有比较好的效果。

2)观点抽取

观点抽取是把句子中的观点抽取出来。

还是“这家餐馆不错、服务态度好,价格便宜”这个句子,其中“服务态度好”、“价格便宜”就是观点词。

观点抽取对建立服务或内容的评价体系,有重要的意义。

3.6 目前遇到的困难

1)语言不规范

虽然目前我们可以总结出一些通用的规则,但是自然语言真的太灵活了。同一个词在不同的场景可能表达多个意思, 不管是通过理解自然语言的规则,还是通过机器学习,都显得比较困难。

2)错别字

在处理文本时,会发现有大量的错别字,怎么样让机器知道这些错别字,并且改过来呢,也是NLP的一大难点。

3)新词

在互联网高速发展的时代,网上每天都会产生大量的新词,我们如何快速地发现这些新词,并让机器理解,也是非常重要的。

04 语音合成(TTS)

实现TTS,目前比较成熟的有两种方法:“拼接法”和“参数法”。

4.1 拼接法

首先,要准备好大量的语音,这些音都是又基本的单位拼接成的(基本单位如音节、音素等),然后从已准备好的声音中,抽取出来合成目标声音。

  • 优点:语音合成的质量比较高。
  • 缺点:数据量要求很大,数据库里必须有足够全的“音”。

4.2  参数法

根据统计模型来产生每时每刻的语音参数(包括基频、共振峰频率等),然后把这些参数转化为波形。

  • 优点:对数据的要求要小点。
  • 缺点:质量比拼接法差一些。

4.3 其他方法

  • 谷歌DeepMind提出的WaveNet方法,基于深度学习的语音合成模型,不会对语音信号进行参数化,使用神经网络直接在时域预测合成语音波形的每一个采样点。
  • Deep Voice 3采用一种新颖的用于语义合成的全卷积架构,可以用于非常大规模的录音数据集。
  • VoiceLoop是Facebook提出的一种新的TTS神经网络,它能将文本转换为在室外采样的声音中的语音,且该网络架构比现有的网络架构简单。

参考文章

  • 《CUI三部曲之语音识别——机器如何听懂你的话?》_AI新司机
  • 《AI是怎样理解人话的?浅析NLP中的分词和关键词_AI研习小分队》_@艺馨_20171101
  • 《语音合成TTS | AI产品经理需要了解的AI技术概念》
  • 《干货整理_2017(北京)百度技术沙龙NLP》_AI游学小分队_20171104
  • 《语音合成TTS技术的最新进展信息汇总》_赵琦_20180404
  • 《【NLP技术】:NLP简单介绍》
  • 《AI PM应该懂的自然语言处理(NLP)知识》

 

本文由 @Jimmy 原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自Unsplash,基于CC0协议。

给作者打赏,鼓励TA抓紧创作!
评论
欢迎留言讨论~!