Datasets:
Update README.md
Browse files
README.md
CHANGED
|
@@ -4,25 +4,30 @@
|
|
| 4 |
|
| 5 |
各文件主要内容:
|
| 6 |
|
| 7 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 8 |
|
| 9 |
关键参数:
|
| 10 |
|
| 11 |
音频时长:min
|
| 12 |
-
|
| 13 |
epoch: 轮
|
| 14 |
|
| 15 |
无关参数:
|
| 16 |
|
| 17 |
-
batch_size =
|
| 18 |
-
|
| 19 |
-
segments =
|
| 20 |
-
|
| 21 |
step=segments*epoch/batch_size,即模型文件后面数字由来
|
| 22 |
|
|
|
|
|
|
|
|
|
|
|
|
|
| 23 |
|
| 24 |
-
|
| 25 |
-
|
| 26 |
|
| 27 |
|
| 28 |
|
|
|
|
| 4 |
|
| 5 |
各文件主要内容:
|
| 6 |
|
| 7 |
+
部分训练集:内含一些被训练角色的音色
|
| 8 |
+
待转换音频:用于“被替换音色”的音频
|
| 9 |
+
转换结果:音色被训练音色替换掉的音频
|
| 10 |
+
其他:人工处理的中间文件,比如待转换音频分离bgm和人声的文件
|
| 11 |
+
训练参数预览:仅需要关注以下几点即可
|
| 12 |
|
| 13 |
关键参数:
|
| 14 |
|
| 15 |
音频时长:min
|
|
|
|
| 16 |
epoch: 轮
|
| 17 |
|
| 18 |
无关参数:
|
| 19 |
|
| 20 |
+
batch_size = 一个step训练的片段数
|
| 21 |
+
segments = 音频被切分的片段
|
|
|
|
|
|
|
| 22 |
step=segments*epoch/batch_size,即模型文件后面数字由来
|
| 23 |
|
| 24 |
+
损失函数图像:主要看step 与 loss5,比如:
|
| 25 |
+
给一个大致的参考,该示例全部来自于 散兵 这一角色,待转换音频都为高音女生,这是较为刁钻的测试:如图,10min纯净人声,
|
| 26 |
+
差不多2800epoch(10000step)就已经出结果了,实际使用的是5571epoch(19500step)的文件,被训练音色和原音色相差几
|
| 27 |
+
何,差不多有个概念。当然即使loss也不足以参考,唯一的衡量标准就是当事人的耳朵。当然,正常训练,10min还是有些少的。
|
| 28 |
|
| 29 |
+
相关文件全部在“散兵效果预览”文件夹中
|
| 30 |
+

|
| 31 |
|
| 32 |
|
| 33 |
|