作者:小孩的内心世界 | 来源:互联网 | 2023-06-06 10:34
虽然从普通用户眼中,使用语音向天猫精灵发起指令,然后收到后者的语音回复,这个流程似乎很简单,但背后实际上有着人工智能中ASR(语音识别)、NLP(自然语言处理)、TTS(语音合成)
虽然从普通用户眼中,使用语音向天猫精灵发起指令,然后收到后者的语音回复,这个流程似乎很简单,但背后实际上有着人工智能中 ASR(语音识别)、NLP(自然语言处理)、TTS(语音合成)等自然语言处理技术的参与和整合。
我们先来看一个典型的用户通过语音同天猫精灵交互的流程图。
用户用语音唤醒天猫精灵,后者接收到用户语音,上传到智能应用平台。
平台使用 ASR(音频转文字)和 NLP(自然语言处理)技术,智能解析出用户发出语音包含的意图(通俗的说,即用户当前期望天猫精灵完成什么样的操作)。平台会自动将当前用户指令,匹配到开发人员创建的对应的技能和意图去。具体的匹配过程,就是将平台所有解析到的参数信息,通过 HTTPS 请求访问开发者提供的服务接口。
开发者负责实现的服务(托管在自己的应用服务器或者阿里云 Serverless 环境),接收到平台发送的请求参数,执行业务逻辑(比如天气预报查询,智力题,语音游戏等),并组装回复结果。
智能应用平台收到开发者服务执行完业务逻辑返回的响应数据后,使用 TTS(文字转音频)合成音频,并将音频推送回天猫精灵。
天猫精灵将收到的音频通过麦克风播报出来,本轮同用户的交互就完成了。
分析这个交互场景,不难发现,需要开发人员动手操作的流程包含以下两个方面:
在 AliGenie 技能应用平台上创建新的技能和意图,用于接收用户通过语音发送过来的请求。
应用开发人员自己选择在应用服务器还是 Serveless 运行环境里实现新的技能需要完成的业务逻辑编写。
新技能的创建和意图的定义
登录 AliGenie 技能应用平台,点击 创建新技能
,通过向导创建一个新技能。
下面是天猫精灵技能创建页面。这个页面的 url:
https://iap.aligenie.com/console/newskill/89247/basic?id=2022042968002&childType=skill
其中 skill id 为 89247
,id 为 2022042968002
,取的是技能创建时间。
从开发流程状态迁移图能看出,一个新的语音技能,从创建后,依次要经过下列的步骤,最后才能正式发布给用户使用:
- 定义语音交互模型
- 构建后端服务逻辑
- 添加屏显页面(可选步骤,可跳过)
- 测试:可以用真机测试或者网页上测试
在技能属性维护的明细页面,我们可以观察到下列信息:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XI038Jh9-1652060198031)(https://upload-images.jianshu.io/upload_images/2085791-4d8866c75e1302ca.png?imageMogr2/auto-orient/strip|imageView2/2/w/1240)]
技能最重要的属性是维护技能调用词,当用户向天猫精灵发出的语音指令,包含技能调用词时,天猫精灵才会进行相应的技能处理状态。
在我的评测里,我选用的技能调用词为 汪子熙是谁
,因为该调用词不能和平台已有的调用词相冲突。
一个语音技能可以包含多个意图。意图代表用户同天猫精灵进行交互对话的目的。比如我的自定义技能,包含了三个意图:体重,天气查询和欢迎意图。意图标识即意图 ID,需要在技能开发人员编写的代码实现里使用到。
我们在上图选择一个意图打开,比如 天气查询
意图,打开其编辑页面,能看到一个 单轮对话表达
的维护界面。因为之前已经说过,一个语音技能可以对应多个意图,所以如果用户向天猫精灵发起的语音指令,同单轮对话表达里维护的语句相同或相似时,就被判定为命中了对应的意图。
比如用户向天猫精灵发起的对话,同下列类型的语句相似时:
智能应用平台就会将这些请求参数,比如 今天
,杭州
,以及判定出的意图 id,weather
,传入应用程序业务接口。在我们自己编写的程序里,拿到 weather
id,就知道当前用户期望 查询
杭州
这个城市 今天
的天气情况,此时就可以调用天气查询的 Restful API 完成业务逻辑了。
单轮对话表达式的参数定义
我们观察到了在意图的单轮对话表达式维护界面里,杭州
和 今天
这两个词都通过特殊的颜色进行高亮。这代表它们是对话表达式里的参数
。显然,天气预报业务要针对具体的城市和日期才有意义,因此这些参数也需要被发送到应用开发人员编写的服务接口中去。
下图是 weather
,天气预报意图的参数列表页面,其中 城市
的 id 为 city
,我们可以在应用接口的代表中使用该 id,获取用户语音请求中包含的 城市
名称。
上图 参数名称
右边的一列,叫做 关联实体
。实体(Entity)是自然语言处理领域里中表示一类短语的集合,包含了应用所在领域的关键词和术语。
比如天气预报领域,关键词为时间,地点,天气状况。在智能应用平台的处理流程里,实体负责告诉平台,当从用户语音请求中解析出参数时,这些参数的可能取值范围。语音技能支持自定义实体或者引用平台提供的公共实体。
上图定义的参数,都有一个一一对应的实体,界面如下:
如果用户发起的请求里,并没有显式说明想知道哪一个城市的天气状况,此时我们可以使用 精灵追问
功能,向用户发起一个新的提问,比如:你问的是哪一个城市
?从而获取 city 参数的值。
意图编辑页面里的多轮对话编辑也是一个很有用的功能:
上图的例子是,如果用户当前的请求已经位于 weather
意图的处理上下文,在这个情况下用户再次追问:那北京呢
?此时智能平台会判断出,这一轮的对话仍旧属于天气预报的意图,因此会将 city = 北京
这个参数串,发送给用户定义的业务实现接口。
技能后端编码
技能的后端编码是天猫精灵自定义技能开发的重头戏。点击 代码编辑
面板,可以为该技能针对的业务接口实现,选择对应的服务部署方式。
在线开发模式同阿里云云原生开发即 FAAS,这两种方式均无需搭建自己的应用服务器,区别在于前者作为一款免费的云服务资源和在线开发环境,资源额度有限,更适合快速体验天猫精灵技能应用的开发流程,而不适合用于技能的生产模式下部署。
因而我选择了阿里云的 Serverless 产品 FAAS,可以直接在浏览器里进行技能后端服务的开发,调试,部署和运行。
依次开通 API 网关,日志服务,函数计算,对象存储四个资源后,基于 Java Spring Boot 应用模板,快速创建一个服务实现:
访问 FAAS 环境的控制台 url:
这个后台服务接口的 Java 实现代码,托管在 codeup
代码仓库上:
在开发部署页面,我们可以查看部署日志,对 FAAS 实例的硬件参数进行调整等操作:
API 网关和 FC 计算服务的关系如下图所示:
点击 前往开发
,就可以在浏览器里使用 CloudIDE 进行 Java 开发了:
对于天天用 Visual Studio Code 进行 Angular 开发的笔者,对于这个浏览器里使用的 Cloud IDE 的外观再熟悉不过了:https://workbench.aliyun.com/intersys/2022042901718897/develop?orgId=626bfb21cfea268afc21ab8d
在 Cloud IDE 里能完成绝大多数常规的开发操作,比如代码编辑,git 代码仓库提交,Maven 构建,一键部署等等:
该 Cloud IDE 提供的更多功能,可以通过 视图
-> 命令面板
里查看:
接下来,就可以在 Cloud IDE 基于模板生成的项目里,通过实现 GenieEntry 的 execute 方法,来编写自定义技能的业务逻辑了: