喵ID:oCFqFW免责声明

Neural Harmonic-plus-Noise Waveform Model with Trainable Maximum Voice Frequency for Text-to-Speech Synthesis

基本信息

DOI:
10.21437/ssw.2019-1
发表时间:
2019-08
期刊:
ArXiv
影响因子:
--
通讯作者:
Xin Wang;J. Yamagishi
中科院分区:
其他
文献类型:
--
作者: Xin Wang;J. Yamagishi研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

Neural source-filter (NSF) models are deep neural networks that produce waveforms given input acoustic features. They use dilated-convolution-based neural filter modules to filter sine-based excitation for waveform generation, which is different from WaveNet and flow-based models. One of the NSF models, called harmonic-plus-noise NSF (h-NSF) model, uses separate pairs of source and neural filters to generate harmonic and noise waveform components. It is close to WaveNet in terms of speech quality while being superior in generation speed. The h-NSF model can be improved even further. While h-NSF merges the harmonic and noise components using pre-defined digital low- and high-pass filters, it is well known that the maximum voice frequency (MVF) that separates the periodic and aperiodic spectral bands are time-variant. Therefore, we propose a new h-NSF model with time-variant and trainable MVF. We parameterize the digital low- and high-pass filters as windowed-sinc filters and predict their cut-off frequency (i.e., MVF) from the input acoustic features. Our experiments demonstrated that the new model can predict a good trajectory of the MVF and produce high-quality speech for a text-to-speech synthesis system.
神经源 - 滤波器(NSF)模型是一种深度神经网络,它在给定输入声学特征的情况下生成波形。它们使用基于扩张卷积的神经滤波器模块对基于正弦的激励进行滤波以生成波形,这与WaveNet和基于流的模型不同。其中一种NSF模型,称为谐波加噪声NSF(h - NSF)模型,使用独立的源滤波器和神经滤波器对来生成谐波和噪声波形成分。它在语音质量方面与WaveNet相近,但在生成速度上更优。h - NSF模型还可以进一步改进。虽然h - NSF使用预定义的数字低通和高通滤波器合并谐波和噪声成分,但众所周知,区分周期和非周期频谱带的最大语音频率(MVF)是时变的。因此,我们提出一种具有时变且可训练的MVF的新型h - NSF模型。我们将数字低通和高通滤波器参数化为加窗辛格滤波器,并根据输入声学特征预测它们的截止频率(即MVF)。我们的实验表明,新模型能够预测出良好的MVF轨迹,并为文本到语音合成系统生成高质量的语音。
参考文献(22)
被引文献(31)

数据更新时间:{{ references.updateTime }}

Xin Wang;J. Yamagishi
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓