基于 RTVC-7 Voice Cloning Model 的 Cross-Lingual TTS 的三步走: 第二步 Tuned-EarSpeech 跨语言实验观察

0. 说明

把 LJSpeech 的作为 reference, 以及 DataBaker EN 的

  • 首先仍然用 7k 的那个 ckpt
  • 虽然目前训练到了 126k, 但是保持和之前不跨语言的对比, 所以不用 (单独开一篇博客, 记录实验观察 (二))

1. 选取 Reference Speech

1.1. 选取音频

  1. 前 6 个是标贝双语, 分别是 2 个中, 2 个英, 2 个混合
  2. 然后两个是 LJSpeech
  3. 最后四个来源于 VCTK
  4. 注意, 采样率有的是 16k, 有的是 48k

1.2. 给张阳帮忙提取 Speaker Embedding

猜你喜欢

转载自blog.csdn.net/u013625492/article/details/114656320