
图 5. 跨说话和跨带宽初始化的词错率比较
结论
我们应用大年夜其他语音辨认义务中获取的常识来改良窄带蓝牙应用的 DNN 声学模型。这类常识平日大年夜 DNN 声学模型初始化中获取,具体来说,就是应用在带限宽带数据上预练习的 DNN 的权重,或者将其用于另一种说话。
对于我们实验中应用的全部说话,这些技巧产生的词错率比只在目标说话的蓝牙窄带数据中零丁练习的模型低 45%。我们的办法还可以灵活地在练习时光和大年夜可用的多样化数据中进修之间进行衡量,详情见论文 [6]。
除本文阐述的蓝牙窄带模型案例研究外,这些办法在很多神经收集声学模型场景中都显示出其高效性,并且赞助我们在 Siri 应用新说话和新音频信道时构建最佳模型。
任何数量的域数据
【编辑推荐】
- 三星电子股票本年已涨近50%,完胜苹不雅?
- Swift开创人于苹不雅离职 入职特斯拉
- 苹不雅到底向高通付了若干专利费?
- 干掉落Home键!苹不雅创造新专利,经由过程屏幕获取指纹信息
- 苹不雅被斥“盗窟”的虚拟头像专利毕竟是个什么“鬼”?
推荐阅读
【51CTO晃荡】8.26 带你与清华大年夜学、搜狗、京东大年夜咖们一路商量基于算法的IT运维实践 *推荐对象:Mindjet >>>详细阅读
本文标题:苹果机器学习期刊「Siri 三部曲」之一:通过跨带宽和跨语言初始化提升神经网络声学模型
地址:http://www.17bianji.com/lsqh/36929.html
1/2 1