基于freeswitch的智能外呼2-自定义freeswitch模块
我们接触到的自动外呼市面上大多都是用户接听后,播放一段录音。
这种完全跟不上现在时代, 目前有实力的技术公司均实现了基于asr和tts的智能外呼,同时很多公司并将此作为一种能力对外开放和进行商业合作。
那么我们如何实现基于freeswitch的智能外呼模块? 首先我们来看看如何自动freeswitch模块。
我们需要实时记录用户的音频信息,当用户声音低于某个阈值时,将当前的音频数据发给asr进行识别,并将识别结果推送给智能问答系统,再将智能问答返回的文字,使用tts播放给用户听。
// mini 版本 myrobot,可进行学习, 自定义freeswitch application
// 通过media bug 来对chan
小小幸运
0
智能外呼交互中的打断时机
之前分享过, 我们使用vad来检测用户是否人声,同时进行打断播音,但是这里有个体验上的严重问题,就是当用户首次和你进行交互的时候,我们的交互话术,大多时候还是以问候+意图目的的形式。 那么会出现下面的场景:
机器人: 您好,我是**,我们之前有过交集【话还没说完,用户的回复好的,等打断了机器人】
有耐心【礼貌】的用户:嘿,您好
首句机器人在没有表达出意图之前,用户回复了你的问候,这导致了,播报的打断。但同时用户的问候仅仅是一句简单交互,并没有回复你的意图,也就是说你没法根据这句话去判断您的意图走向, 只能再次进入引导语句,这样的行为,如果过多就会让用户失去耐心,同时失去了简单获取用户意图的时机,从而导致一次外呼过程的不完
小小幸运
0