近日消息,苹果公司宣布了一项重大的技术突破,即其自主研发的去噪语言模型(DLM),该模型在大量精心设计的合成数据集上接受了深度训练,展现出了前所未有的效能提升,为自动语音识别(ASR)技术树立了新的标杆。
这项技术的核心在于使用文本转语音(TTS)系统创建音频,并将其输入ASR系统,通过这种方式产生了嘈杂的假设,与原始文本进行配对,从而训练DLM。该方法的关键要素包括升级的模型和数据、多说话人TTS系统、各种噪声增强策略以及新的解码技术。
研究显示,单个DLM可以应用于不同的ASR系统,其性能显著优于传统的基于语言模型(LM)的集束搜索重新评分方法。这一突破意味着精心设计的纠错模型可以取代传统的LM,将ASR系统的准确率提升到一个新的高度。尤其值得注意的是,DLM在LibriSpeech上实现了1.5%的字错误率(WER),这是不使用外部音频数据时报告的最佳数字之一,证明了其卓越性能。
然而,DLM面临的挑战之一是需要大量的监督训练示例,而这在典型的ASR数据集中是有限的。为了解决这一问题,DLM采用了使用TTS系统生成合成音频的方法,从而扩展了训练数据集的规模。这种创新性的做法为DLM的性能提升提供了更广阔的空间,使其在ASR领域引领潮流。
文明上网,理性发言,共同做网络文明传播者