Duplicate from AnhP/Vietnamese-RVC-Project
Browse filesCo-authored-by: Phạm Huỳnh Anh <[email protected]>
This view is limited to 50 files because it contains too many changes.
See raw diff
- .gitattributes +46 -0
- README.md +349 -0
- audioldm/README.txt +29 -0
- audioldm/audioldm2-large/feature_extractor/preprocessor_config.json +22 -0
- audioldm/audioldm2-large/language_model/config.json +39 -0
- audioldm/audioldm2-large/language_model/model.safetensors +3 -0
- audioldm/audioldm2-large/language_model/pytorch_model.bin +3 -0
- audioldm/audioldm2-large/model_index.json +48 -0
- audioldm/audioldm2-large/projection_model/config.json +7 -0
- audioldm/audioldm2-large/projection_model/diffusion_pytorch_model.bin +3 -0
- audioldm/audioldm2-large/projection_model/diffusion_pytorch_model.safetensors +3 -0
- audioldm/audioldm2-large/scheduler/scheduler_config.json +19 -0
- audioldm/audioldm2-large/text_encoder/config.json +35 -0
- audioldm/audioldm2-large/text_encoder/model.safetensors +3 -0
- audioldm/audioldm2-large/text_encoder/pytorch_model.bin +3 -0
- audioldm/audioldm2-large/text_encoder_2/config.json +32 -0
- audioldm/audioldm2-large/text_encoder_2/model.safetensors +3 -0
- audioldm/audioldm2-large/text_encoder_2/pytorch_model.bin +3 -0
- audioldm/audioldm2-large/tokenizer/merges.txt +0 -0
- audioldm/audioldm2-large/tokenizer/special_tokens_map.json +15 -0
- audioldm/audioldm2-large/tokenizer/tokenizer.json +0 -0
- audioldm/audioldm2-large/tokenizer/tokenizer_config.json +20 -0
- audioldm/audioldm2-large/tokenizer/vocab.json +0 -0
- audioldm/audioldm2-large/tokenizer_2/special_tokens_map.json +107 -0
- audioldm/audioldm2-large/tokenizer_2/spiece.model +3 -0
- audioldm/audioldm2-large/tokenizer_2/tokenizer.json +0 -0
- audioldm/audioldm2-large/tokenizer_2/tokenizer_config.json +112 -0
- audioldm/audioldm2-large/unet/config.json +78 -0
- audioldm/audioldm2-large/unet/diffusion_pytorch_model.bin +3 -0
- audioldm/audioldm2-large/unet/diffusion_pytorch_model.safetensors +3 -0
- audioldm/audioldm2-large/vae/config.json +28 -0
- audioldm/audioldm2-large/vae/diffusion_pytorch_model.bin +3 -0
- audioldm/audioldm2-large/vae/diffusion_pytorch_model.safetensors +3 -0
- audioldm/audioldm2-large/vocoder/config.json +50 -0
- audioldm/audioldm2-large/vocoder/model.safetensors +3 -0
- audioldm/audioldm2-large/vocoder/pytorch_model.bin +3 -0
- audioldm/audioldm2-music/feature_extractor/preprocessor_config.json +22 -0
- audioldm/audioldm2-music/language_model/config.json +39 -0
- audioldm/audioldm2-music/language_model/model.safetensors +3 -0
- audioldm/audioldm2-music/language_model/pytorch_model.bin +3 -0
- audioldm/audioldm2-music/model_index.json +48 -0
- audioldm/audioldm2-music/projection_model/config.json +7 -0
- audioldm/audioldm2-music/projection_model/diffusion_pytorch_model.bin +3 -0
- audioldm/audioldm2-music/projection_model/diffusion_pytorch_model.safetensors +3 -0
- audioldm/audioldm2-music/scheduler/scheduler_config.json +19 -0
- audioldm/audioldm2-music/text_encoder/config.json +35 -0
- audioldm/audioldm2-music/text_encoder/model.safetensors +3 -0
- audioldm/audioldm2-music/text_encoder/pytorch_model.bin +3 -0
- audioldm/audioldm2-music/text_encoder_2/config.json +32 -0
- audioldm/audioldm2-music/text_encoder_2/model.safetensors +3 -0
.gitattributes
ADDED
@@ -0,0 +1,46 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
*.7z filter=lfs diff=lfs merge=lfs -text
|
2 |
+
*.arrow filter=lfs diff=lfs merge=lfs -text
|
3 |
+
*.bin filter=lfs diff=lfs merge=lfs -text
|
4 |
+
*.bz2 filter=lfs diff=lfs merge=lfs -text
|
5 |
+
*.ckpt filter=lfs diff=lfs merge=lfs -text
|
6 |
+
*.ftz filter=lfs diff=lfs merge=lfs -text
|
7 |
+
*.gz filter=lfs diff=lfs merge=lfs -text
|
8 |
+
*.h5 filter=lfs diff=lfs merge=lfs -text
|
9 |
+
*.joblib filter=lfs diff=lfs merge=lfs -text
|
10 |
+
*.lfs.* filter=lfs diff=lfs merge=lfs -text
|
11 |
+
*.mlmodel filter=lfs diff=lfs merge=lfs -text
|
12 |
+
*.model filter=lfs diff=lfs merge=lfs -text
|
13 |
+
*.msgpack filter=lfs diff=lfs merge=lfs -text
|
14 |
+
*.npy filter=lfs diff=lfs merge=lfs -text
|
15 |
+
*.npz filter=lfs diff=lfs merge=lfs -text
|
16 |
+
*.onnx filter=lfs diff=lfs merge=lfs -text
|
17 |
+
*.ot filter=lfs diff=lfs merge=lfs -text
|
18 |
+
*.parquet filter=lfs diff=lfs merge=lfs -text
|
19 |
+
*.pb filter=lfs diff=lfs merge=lfs -text
|
20 |
+
*.pickle filter=lfs diff=lfs merge=lfs -text
|
21 |
+
*.pkl filter=lfs diff=lfs merge=lfs -text
|
22 |
+
*.pt filter=lfs diff=lfs merge=lfs -text
|
23 |
+
*.pth filter=lfs diff=lfs merge=lfs -text
|
24 |
+
*.rar filter=lfs diff=lfs merge=lfs -text
|
25 |
+
*.safetensors filter=lfs diff=lfs merge=lfs -text
|
26 |
+
saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
27 |
+
*.tar.* filter=lfs diff=lfs merge=lfs -text
|
28 |
+
*.tar filter=lfs diff=lfs merge=lfs -text
|
29 |
+
*.tflite filter=lfs diff=lfs merge=lfs -text
|
30 |
+
*.tgz filter=lfs diff=lfs merge=lfs -text
|
31 |
+
*.wasm filter=lfs diff=lfs merge=lfs -text
|
32 |
+
*.xz filter=lfs diff=lfs merge=lfs -text
|
33 |
+
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
+
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
+
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
miku.png filter=lfs diff=lfs merge=lfs -text
|
37 |
+
uvr5_models/Demucs/04573f0d-f3cf25b2.th filter=lfs diff=lfs merge=lfs -text
|
38 |
+
uvr5_models/Demucs/92cfc3b6-ef3bcb9c.th filter=lfs diff=lfs merge=lfs -text
|
39 |
+
uvr5_models/Demucs/955717e8-8726e21a.th filter=lfs diff=lfs merge=lfs -text
|
40 |
+
uvr5_models/Demucs/d12395a8-e57c48e6.th filter=lfs diff=lfs merge=lfs -text
|
41 |
+
uvr5_models/Demucs/f7e0c4bc-ba3fe64a.th filter=lfs diff=lfs merge=lfs -text
|
42 |
+
uvr5_models/Demucs/5c90dfd2-34c22ccb.th filter=lfs diff=lfs merge=lfs -text
|
43 |
+
uvr5_models/Demucs/75fc33f5-1941ce65.th filter=lfs diff=lfs merge=lfs -text
|
44 |
+
ffmpeg/ffmpeg.exe filter=lfs diff=lfs merge=lfs -text
|
45 |
+
ffmpeg/ffprobe.exe filter=lfs diff=lfs merge=lfs -text
|
46 |
+
ico.png filter=lfs diff=lfs merge=lfs -text
|
README.md
ADDED
@@ -0,0 +1,349 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
language:
|
4 |
+
- vi
|
5 |
+
- en
|
6 |
+
pipeline_tag: audio-to-audio
|
7 |
+
tags:
|
8 |
+
- RVC
|
9 |
+
- VITS
|
10 |
+
- VC
|
11 |
+
- Voice Conversion
|
12 |
+
base_model:
|
13 |
+
- lj1995/VoiceConversionWebUI
|
14 |
+
- IAHispano/Applio
|
15 |
+
- cvssp/audioldm2
|
16 |
+
- cvssp/audioldm2-music
|
17 |
+
- cvssp/audioldm2-large
|
18 |
+
- speechbrain/spkrec-ecapa-voxceleb
|
19 |
+
---
|
20 |
+
|
21 |
+
<div align="center">
|
22 |
+
<img alt="LOGO" src="https://huggingface.co/AnhP/Vietnamese-RVC-Project/resolve/main/ico.png" width="300" height="300" />
|
23 |
+
|
24 |
+
# Vietnamese RVC BY ANH
|
25 |
+
Công cụ chuyển đổi giọng nói chất lượng và hiệu suất cao đơn giản dành cho người Việt.
|
26 |
+
|
27 |
+
[](https://github.com/PhamHuynhAnh16/Vietnamese-RVC)
|
28 |
+
[](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
|
29 |
+
[](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/blob/main/LICENSE)
|
30 |
+
|
31 |
+
</div>
|
32 |
+
|
33 |
+
<div align="center">
|
34 |
+
|
35 |
+
[](https://huggingface.co/spaces/AnhP/RVC-GUI)
|
36 |
+
[](https://huggingface.co/AnhP/Vietnamese-RVC-Project)
|
37 |
+
|
38 |
+
</div>
|
39 |
+
|
40 |
+
# Mô tả
|
41 |
+
Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng, được thiết kế cho người Việt Nam. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
|
42 |
+
|
43 |
+
# Các tính năng của dự án
|
44 |
+
|
45 |
+
- Tách nhạc (MDX-Net/Demucs)
|
46 |
+
|
47 |
+
- Chuyển đổi giọng nói (Chuyển đổi tệp/Chuyển đổi hàng loạt/Chuyển đổi với Whisper/Chuyển đổi văn bản)
|
48 |
+
|
49 |
+
- Chỉnh sửa nhạc nền
|
50 |
+
|
51 |
+
- Áp dụng hiệu ứng cho âm thanh
|
52 |
+
|
53 |
+
- Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
|
54 |
+
|
55 |
+
- Huấn luyện mô hình (v1/v2, bộ mã hóa chất lượng cao)
|
56 |
+
|
57 |
+
- Dung hợp mô hình
|
58 |
+
|
59 |
+
- Đọc thông tin mô hình
|
60 |
+
|
61 |
+
- Xuất mô hình sang ONNX
|
62 |
+
|
63 |
+
- Tải xuống từ kho mô hình có sẳn
|
64 |
+
|
65 |
+
- Tìm kiếm mô hình từ web
|
66 |
+
|
67 |
+
- Trích xuất cao độ
|
68 |
+
|
69 |
+
- Hỗ trợ suy luận chuyển đổi âm thanh bằng mô hình ONNX
|
70 |
+
|
71 |
+
- Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
|
72 |
+
|
73 |
+
- Nhiều tùy chọn mô hình:
|
74 |
+
|
75 |
+
F0: `pm, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, rmvpe, rmvpe-legacy, harvest, yin, pyin, swipe`
|
76 |
+
|
77 |
+
F0_ONNX: Một số mô hình được chuyển đổi sang ONNX để hỗ trợ tăng tốc trích xuất
|
78 |
+
|
79 |
+
F0_HYBRID: Có thể kết hợp nhiều tùy chọn lại với nhau như `hybrid[rmvpe+harvest]` hoặc bạn có thể thử kết hợp toàn bộ tất cả tùy chọn lại với nhau
|
80 |
+
|
81 |
+
EMBEDDERS: `contentvec_base, hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base`
|
82 |
+
|
83 |
+
EMBEDDERS_ONNX: Tất cả mô hình nhúng ở trên điều có phiên bản được chuyển đổi sẳn sang ONNX để sử dụng tăng tốc trích xuất nhúng
|
84 |
+
|
85 |
+
EMBEDDERS_TRANSFORMERS: Tất cả mô hình nhúng ở trên điều có phiên bản được chuyển đổi sẳn sang huggingface để sử dụng thay thế cho fairseq
|
86 |
+
|
87 |
+
SPIN_EMBEDDERS: Một mô hình trích xuất nhúng mới, có thể mang đến chất lượng cao hơn các trích xuất cũ.
|
88 |
+
|
89 |
+
# Hướng dẫn sử dụng
|
90 |
+
|
91 |
+
**Sẽ có nếu tôi thực sự rảnh...**
|
92 |
+
|
93 |
+
# Cách cài đặt và sử dụng
|
94 |
+
|
95 |
+
- B1: **Cài đặt python từ trang chủ hoặc [python](https://www.python.org/ftp/python/3.10.7/python-3.10.7-amd64.exe) (YÊU CẦU PYTHON 3.10.x HOẶC PYTHON 3.11.x)**
|
96 |
+
- B2: **Cài đặt ffmpeg từ [FFMPEG](https://github.com/BtbN/FFmpeg-Builds/releases) giải nén và thêm vào PATH**
|
97 |
+
- B3: **Tải mã nguồn về và giải nén ra**
|
98 |
+
- B4: **Vào thư mục mã nguồn và mở Command Prompt hoặc Terminal**
|
99 |
+
- B5: **Nhập lệnh để cài đặt thư viện cần thiết để hoạt động**
|
100 |
+
|
101 |
+
```
|
102 |
+
python -m venv env
|
103 |
+
env\\Scripts\\activate
|
104 |
+
```
|
105 |
+
|
106 |
+
Nếu có GPU NVIDIA thì chạy bước này tùy theo cuda của bạn có thể thay đổi cu117 thành cu128...
|
107 |
+
|
108 |
+
```
|
109 |
+
# Nếu sử dụng Torch 2.3.1
|
110 |
+
python -m pip install torch==2.3.1 torchaudio==2.3.1 torchvision==0.18.1 --index-url https://download.pytorch.org/whl/cu117
|
111 |
+
|
112 |
+
# Nếu sử dụng Torch 2.6.0
|
113 |
+
python -m pip install torch==2.6.0 torchaudio==2.6.0 torchvision==0.21.0 --index-url https://download.pytorch.org/whl/cu117
|
114 |
+
```
|
115 |
+
|
116 |
+
Tiếp theo chạy
|
117 |
+
|
118 |
+
```
|
119 |
+
python -m pip install -r requirements.txt
|
120 |
+
```
|
121 |
+
|
122 |
+
- B5: **Chạy tệp run_app để mở giao diện sử dụng(Lưu ý: không tắt Command Prompt hoặc Terminal của giao diện)**
|
123 |
+
- Hoặc sử dụng cửa sổ Command Prompt hoặc cửa sổ Terminal trong thư mục mã nguồn
|
124 |
+
- Nếu muốn cho phép giao diện truy cập được các tệp ngoài dự án hãy thêm --allow_all_disk vào lệnh
|
125 |
+
```
|
126 |
+
env\\Scripts\\python.exe main\\app\\app.py --open
|
127 |
+
```
|
128 |
+
|
129 |
+
**Với trường hợp bạn sử dụng Tensorboard để kiểm tra huấn luyện**
|
130 |
+
```
|
131 |
+
Chạy tệp: tensorboard hoặc lệnh env\\Scripts\\python.exe main/app/tensorboard.py
|
132 |
+
```
|
133 |
+
|
134 |
+
# Sử dụng với cú pháp lệnh
|
135 |
+
```
|
136 |
+
python main\\app\\parser.py --help
|
137 |
+
```
|
138 |
+
|
139 |
+
# Cấu trúc chính của mã nguồn:
|
140 |
+
|
141 |
+
<pre>
|
142 |
+
Vietnamese-RVC-main
|
143 |
+
├── assets
|
144 |
+
│ ├── f0
|
145 |
+
│ ├── languages
|
146 |
+
│ │ ├── en-US.json
|
147 |
+
│ │ └── vi-VN.json
|
148 |
+
│ ├── logs
|
149 |
+
│ │ └── mute
|
150 |
+
│ │ ├── f0
|
151 |
+
│ │ │ └── mute.wav.npy
|
152 |
+
│ │ ├── f0_voiced
|
153 |
+
│ │ │ └── mute.wav.npy
|
154 |
+
│ │ ├── sliced_audios
|
155 |
+
│ │ │ ├── mute32000.wav
|
156 |
+
│ │ │ ├── mute40000.wav
|
157 |
+
│ │ │ └── mute48000.wav
|
158 |
+
│ │ ├── sliced_audios_16k
|
159 |
+
│ │ │ └── mute.wav
|
160 |
+
│ │ ├── v1_extracted
|
161 |
+
│ │ │ ├── mute.npy
|
162 |
+
│ │ │ └── mute_spin.npy
|
163 |
+
│ │ └── v2_extracted_spin
|
164 |
+
│ │ ├── mute.npy
|
165 |
+
│ │ └── mute_spin.npy
|
166 |
+
│ ├── models
|
167 |
+
│ │ ├── audioldm2
|
168 |
+
│ │ ├── embedders
|
169 |
+
│ │ ├── predictors
|
170 |
+
│ │ ├── pretrained_custom
|
171 |
+
│ │ ├── pretrained_v1
|
172 |
+
│ │ ├── pretrained_v2
|
173 |
+
│ │ ├── speaker_diarization
|
174 |
+
│ │ │ ├── assets
|
175 |
+
│ │ │ │ ├── gpt2.tiktoken
|
176 |
+
│ │ │ │ ├── mel_filters.npz
|
177 |
+
│ │ │ │ └── multilingual.tiktoken
|
178 |
+
│ │ │ └── models
|
179 |
+
│ │ └── uvr5
|
180 |
+
│ ├── presets
|
181 |
+
│ ├── weights
|
182 |
+
│ └── ico.png
|
183 |
+
├── audios
|
184 |
+
├── dataset
|
185 |
+
├── main
|
186 |
+
│ ├── app
|
187 |
+
│ │ ├── app.py
|
188 |
+
│ │ ├── tensorboard.py
|
189 |
+
│ │ └── parser.py
|
190 |
+
│ ├── configs
|
191 |
+
│ │ ├── v1
|
192 |
+
│ │ │ ├── 32000.json
|
193 |
+
│ │ │ ├── 40000.json
|
194 |
+
│ │ │ └── 48000.json
|
195 |
+
│ │ ├── v2
|
196 |
+
│ │ │ ├── 32000.json
|
197 |
+
│ │ │ ├── 40000.json
|
198 |
+
│ │ │ └── 48000.json
|
199 |
+
│ │ ├── config.json
|
200 |
+
│ │ └── config.py
|
201 |
+
│ ├── inference
|
202 |
+
│ │ ├── audio_effects.py
|
203 |
+
│ │ ├── audioldm2.py
|
204 |
+
│ │ ├── convert.py
|
205 |
+
│ │ ├── create_dataset.py
|
206 |
+
│ │ ├── create_index.py
|
207 |
+
│ │ ├── extract.py
|
208 |
+
│ │ ├── preprocess.py
|
209 |
+
│ │ ├── separator_music.py
|
210 |
+
│ │ └── train.py
|
211 |
+
│ ├── library
|
212 |
+
│ │ ├── algorithm
|
213 |
+
│ │ │ ├── commons.py
|
214 |
+
│ │ │ ├── modules.py
|
215 |
+
│ │ │ ├── mrf_hifigan.py
|
216 |
+
│ │ │ ├── onnx_export.py
|
217 |
+
│ │ │ ├── refinegan.py
|
218 |
+
│ │ │ ├── residuals.py
|
219 |
+
│ │ │ ├── separator.py
|
220 |
+
│ │ │ └── stftpitchshift.py
|
221 |
+
│ │ ├── architectures
|
222 |
+
│ │ │ ├── demucs_separator.py
|
223 |
+
│ │ │ ├── fairseq.py
|
224 |
+
│ │ │ └── mdx_separator.py
|
225 |
+
│ │ ├── audioldm2
|
226 |
+
│ │ │ ├── models.py
|
227 |
+
│ │ │ └── utils.py
|
228 |
+
│ │ ├── predictors
|
229 |
+
│ │ │ ├── CREPE.py
|
230 |
+
│ │ │ ├── FCPE.py
|
231 |
+
│ │ │ ├── Generator.py
|
232 |
+
│ │ │ ├── RMVPE.py
|
233 |
+
│ │ │ ├── SWIPE.py
|
234 |
+
│ │ │ └── WORLD_WRAPPER.py
|
235 |
+
│ │ ├── speaker_diarization
|
236 |
+
│ │ │ ├── audio.py
|
237 |
+
│ │ │ ├── ECAPA_TDNN.py
|
238 |
+
│ │ │ ├── embedding.py
|
239 |
+
│ │ │ ├── encoder.py
|
240 |
+
│ │ │ ├── features.py
|
241 |
+
│ │ │ ├── parameter_transfer.py
|
242 |
+
│ │ │ ├── segment.py
|
243 |
+
│ │ │ ├── speechbrain.py
|
244 |
+
│ │ │ └── whisper.py
|
245 |
+
│ │ ├── uvr5_separator
|
246 |
+
│ │ │ ├── common_separator.py
|
247 |
+
│ │ │ ├── spec_utils.py
|
248 |
+
│ │ │ └── demucs
|
249 |
+
│ │ │ ├── apply.py
|
250 |
+
│ │ │ ├── demucs.py
|
251 |
+
│ │ │ ├── hdemucs.py
|
252 |
+
│ │ │ ├── htdemucs.py
|
253 |
+
│ │ │ ├── states.py
|
254 |
+
│ │ │ └── utils.py
|
255 |
+
│ │ └── utils.py
|
256 |
+
│ └── tools
|
257 |
+
│ ├── gdown.py
|
258 |
+
│ ├── huggingface.py
|
259 |
+
│ ├── mediafire.py
|
260 |
+
│ ├── meganz.py
|
261 |
+
│ ├── noisereduce.py
|
262 |
+
│ └── pixeldrain.py
|
263 |
+
├── docker-compose-cpu.yaml
|
264 |
+
├── docker-compose-cuda118.yaml
|
265 |
+
├── docker-compose-cuda128.yaml
|
266 |
+
├── Dockerfile
|
267 |
+
├── Dockerfile.cuda118
|
268 |
+
├── Dockerfile.cuda128
|
269 |
+
├── LICENSE
|
270 |
+
├── README.md
|
271 |
+
├── requirements.txt
|
272 |
+
├── run_app.bat
|
273 |
+
└── tensorboard.bat
|
274 |
+
</pre>
|
275 |
+
|
276 |
+
# LƯU Ý
|
277 |
+
|
278 |
+
- **Dự án này chỉ hỗ trợ trên gpu của NVIDIA (Có thể sẽ hỗ trợ AMD sau nếu tôi có gpu AMD để thử)**
|
279 |
+
- **Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước**
|
280 |
+
- **Bộ mã hóa MRF HIFIGAN và REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ**
|
281 |
+
- **Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau (Ví dụ: Audioldm2 có các trọng số mô hình với điều khoản "Phi Thương Mại")**
|
282 |
+
- **Mã nguồn này có chứa thành phần phần mềm bên thứ ba được cấp phép với điều khoản "phi thương mại". Bất kỳ hành vi sử dụng thương mại nào, bao gồm kêu gọi tài trợ hoặc tài chính hóa phần mềm phái sinh, đều có thể vi phạm giấy phép và sẽ phải chịu trách nhiệm pháp lý tương ứng.**
|
283 |
+
|
284 |
+
# Điều khoản sử dụng
|
285 |
+
|
286 |
+
- Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
|
287 |
+
|
288 |
+
- Không được phép sử dụng dự án này cho bất kỳ hoạt động nào bất hợp pháp, bao gồm nhưng không giới hạn ở việc sử dụng để lừa đảo, quấy rối, hay gây tổn hại đến người khác.
|
289 |
+
|
290 |
+
- Bạn chịu trách nhiệm hoàn toàn đối với bất kỳ thiệt hại nào phát sinh từ việc sử dụng sản phẩm không đúng cách.
|
291 |
+
|
292 |
+
- Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
|
293 |
+
|
294 |
+
# Dự án này được xây dựng dựa trên các dự án như sau
|
295 |
+
|
296 |
+
| Tác Phẩm | Tác Giả | Giấy Phép |
|
297 |
+
|--------------------------------------------------------------------------------------------------------------------------------|-------------------------|-------------|
|
298 |
+
| **[Applio](https://github.com/IAHispano/Applio/tree/main)** | IAHispano | MIT License |
|
299 |
+
| **[Python-audio-separator](https://github.com/nomadkaraoke/python-audio-separator/tree/main)** | Nomad Karaoke | MIT License |
|
300 |
+
| **[Retrieval-based-Voice-Conversion-WebUI](https://github.com/RVC-Project/Retrieval-based-Voice-Conversion-WebUI/tree/main)** | RVC Project | MIT License |
|
301 |
+
| **[RVC-ONNX-INFER-BY-Anh](https://github.com/PhamHuynhAnh16/RVC_Onnx_Infer)** | Phạm Huỳnh Anh | MIT License |
|
302 |
+
| **[Torch-Onnx-Crepe-By-Anh](https://github.com/PhamHuynhAnh16/TORCH-ONNX-CREPE)** | Phạm Huỳnh Anh | MIT License |
|
303 |
+
| **[Hubert-No-Fairseq](https://github.com/PhamHuynhAnh16/hubert-no-fairseq)** | Phạm Huỳnh Anh | MIT License |
|
304 |
+
| **[Local-attention](https://github.com/lucidrains/local-attention)** | Phil Wang | MIT License |
|
305 |
+
| **[TorchFcpe](https://github.com/CNChTu/FCPE/tree/main)** | CN_ChiTu | MIT License |
|
306 |
+
| **[FcpeONNX](https://github.com/deiteris/voice-changer/blob/master-custom/server/utils/fcpe_onnx.py)** | Yury | MIT License |
|
307 |
+
| **[ContentVec](https://github.com/auspicious3000/contentvec)** | Kaizhi Qian | MIT License |
|
308 |
+
| **[Mediafiredl](https://github.com/Gann4Life/mediafiredl)** | Santiago Ariel Mansilla | MIT License |
|
309 |
+
| **[Noisereduce](https://github.com/timsainb/noisereduce)** | Tim Sainburg | MIT License |
|
310 |
+
| **[World.py-By-Anh](https://github.com/PhamHuynhAnh16/world.py)** | Phạm Huỳnh Anh | MIT License |
|
311 |
+
| **[Mega.py](https://github.com/3v1n0/mega.py)** | Marco Trevisan | No License |
|
312 |
+
| **[Gdown](https://github.com/wkentaro/gdown)** | Kentaro Wada | MIT License |
|
313 |
+
| **[Whisper](https://github.com/openai/whisper)** | OpenAI | MIT License |
|
314 |
+
| **[PyannoteAudio](https://github.com/pyannote/pyannote-audio)** | pyannote | MIT License |
|
315 |
+
| **[AudioEditingCode](https://github.com/HilaManor/AudioEditingCode)** | Hila Manor | MIT License |
|
316 |
+
| **[StftPitchShift](https://github.com/jurihock/stftPitchShift)** | Jürgen Hock | MIT License |
|
317 |
+
| **[Codename-RVC-Fork-3](https://github.com/codename0og/codename-rvc-fork-3)** | Codename;0 | MIT License |
|
318 |
+
|
319 |
+
# Kho mô hình của công cụ tìm kiếm mô hình
|
320 |
+
|
321 |
+
- **[VOICE-MODELS.COM](https://voice-models.com/)**
|
322 |
+
|
323 |
+
# Các phương pháp trích xuất Pitch trong RVC
|
324 |
+
|
325 |
+
Tài liệu này trình bày chi tiết các phương pháp trích xuất cao độ được sử dụng, thông tin về ưu, nhược điểm, sức mạnh và độ tin cậy của từng phương pháp theo trải nghiệm cá nhân.
|
326 |
+
|
327 |
+
| Phương pháp | Loại | Ưu điểm | Hạn chế | Sức mạnh | Độ tin cậy |
|
328 |
+
|--------------------|----------------|---------------------------|------------------------------|--------------------|--------------------|
|
329 |
+
| pm | Praat | Nhanh | Kém chính xác | Thấp | Thấp |
|
330 |
+
| dio | PYWORLD | Thích hợp với Rap | Kém chính xác với tần số cao | Trung bình | Trung bình |
|
331 |
+
| harvest | PYWORLD | Chính xác hơn DIO | Xử lý chậm hơn | Cao | Rất cao |
|
332 |
+
| crepe | Deep Learning | Chính xác cao | Yêu cầu GPU | Rất cao | Rất cao |
|
333 |
+
| mangio-crepe | crepe finetune | Tối ưu hóa cho RVC | Đôi khi kém crepe gốc | Trung bình đến cao | Trung bình đến cao |
|
334 |
+
| fcpe | Deep Learning | Chính xác, thời gian thực | Cần GPU mạnh | Khá | Trung bình |
|
335 |
+
| fcpe-legacy | Old | Chính xác, thời gian thực | Cũ hơn | Khá | Trung bình |
|
336 |
+
| rmvpe | Deep Learning | Hiệu quả với giọng hát | Tốn tài nguyên | Rất cao | Xuất sắc |
|
337 |
+
| rmvpe-legacy | Old | Hỗ trợ hệ thống cũ | Cũ hơn | Cao | Khá |
|
338 |
+
| yin | Librosa | Đơn giản, hiệu quả | Dễ lỗi bội | Trung bình | Thấp |
|
339 |
+
| pyin | Librosa | Ổn định hơn YIN | Tính toán phức tạp hơn | Khá | Khá |
|
340 |
+
| swipe | WORLD | Độ chính xác cao | Nhạy cảm với nhiễu | Cao | Khá |
|
341 |
+
|
342 |
+
# Báo cáo lỗi
|
343 |
+
|
344 |
+
- **Với trường hợp gặp lỗi khi sử dụng mã nguồn này tôi thực sự xin lỗi bạn vì trải nghiệm không tốt này, bạn có thể gửi báo cáo lỗi thông qua cách phía dưới**
|
345 |
+
- **Bạn có thể báo cáo lỗi cho tôi thông qua hệ thống báo cáo lỗi webhook trong giao diện sử dụng**
|
346 |
+
- **Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord `pham_huynh_anh` Hoặc [ISSUE](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/issues)**
|
347 |
+
|
348 |
+
# ☎️ Liên hệ tôi
|
349 |
+
- Discord: **pham_huynh_anh**
|
audioldm/README.txt
ADDED
@@ -0,0 +1,29 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
Mô hình thuộc sở hữu của https://huggingface.co/cvssp
|
2 |
+
|
3 |
+
Mô hình Audioldm2: https://huggingface.co/cvssp/audioldm2
|
4 |
+
Bản Quyền: cc-by-nc-sa-4.0
|
5 |
+
|
6 |
+
Mô hình Audioldm2-large: https://huggingface.co/cvssp/audioldm2-large
|
7 |
+
Bản Quyền: cc-by-nc-sa-4.0
|
8 |
+
|
9 |
+
Mô hình Audioldm2-music: https://huggingface.co/cvssp/audioldm2-music
|
10 |
+
Bản Quyền: cc-by-nc-sa-4.0
|
11 |
+
|
12 |
+
NẾU SỬ DỤNG CÁC MÔ HÌNH TỪ KHO LƯU TRỮ NÀY VUI LÒNG TUÂN THỦ BẢN QUYỀN TỪ CÁC MÔ HÌNH TRÊN!
|
13 |
+
BẠN CHỊU TRÁCH NHIỆM HOÀN TOÀN ĐỐI VỚI BẤT KỲ THIỆT HẠI NÀO PHÁT SINH TỪ VIỆC SỬ DỤNG KHO LƯU TRỮ KHÔNG ĐÚNG CÁCH!
|
14 |
+
TÔI SẼ KHÔNG CHỊU TRÁCH NHIỆM VỚI BẤT KỲ THIỆT HẠI TRỰC TIẾP HOẶC GIÁN TIẾP NÀO PHÁT SINH TỪ VIỆC SỬ DỤNG KHO LƯU TRỮ NÀY!
|
15 |
+
|
16 |
+
Model owned by https://huggingface.co/cvssp
|
17 |
+
|
18 |
+
Audioldm2 model: https://huggingface.co/cvssp/audioldm2
|
19 |
+
Copyright: cc-by-nc-sa-4.0
|
20 |
+
|
21 |
+
Audioldm2-large model: https://huggingface.co/cvssp/audioldm2-large
|
22 |
+
Copyright: cc-by-nc-sa-4.0
|
23 |
+
|
24 |
+
Audioldm2-music model: https://huggingface.co/cvssp/audioldm2-music
|
25 |
+
Copyright: cc-by-nc-sa-4.0
|
26 |
+
|
27 |
+
IF YOU USE MODELS FROM THIS ARCHIVE PLEASE COMPLY WITH THE COPYRIGHT FROM THE ABOVE MODELS!
|
28 |
+
YOU ARE SOLELY RESPONSIBLE FOR ANY DAMAGES THAT RESULT FROM IMPROPER USE OF THE ARCHIVE!
|
29 |
+
I WILL NOT BE LIABLE FOR ANY DIRECT OR INDIRECT DAMAGES THAT RESULT FROM THE USE OF THIS ARCHIVE!
|
audioldm/audioldm2-large/feature_extractor/preprocessor_config.json
ADDED
@@ -0,0 +1,22 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"chunk_length_s": 10,
|
3 |
+
"feature_extractor_type": "ClapFeatureExtractor",
|
4 |
+
"feature_size": 64,
|
5 |
+
"fft_window_size": 1024,
|
6 |
+
"frequency_max": 14000,
|
7 |
+
"frequency_min": 50,
|
8 |
+
"hop_length": 480,
|
9 |
+
"max_length_s": 10,
|
10 |
+
"n_fft": 1024,
|
11 |
+
"nb_frequency_bins": 513,
|
12 |
+
"nb_max_frames": 1000,
|
13 |
+
"nb_max_samples": 480000,
|
14 |
+
"padding": "repeatpad",
|
15 |
+
"padding_side": "right",
|
16 |
+
"padding_value": 0.0,
|
17 |
+
"processor_class": "ClapProcessor",
|
18 |
+
"return_attention_mask": false,
|
19 |
+
"sampling_rate": 48000,
|
20 |
+
"top_db": null,
|
21 |
+
"truncation": "rand_trunc"
|
22 |
+
}
|
audioldm/audioldm2-large/language_model/config.json
ADDED
@@ -0,0 +1,39 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"activation_function": "gelu_new",
|
3 |
+
"architectures": [
|
4 |
+
"GPT2Model"
|
5 |
+
],
|
6 |
+
"attn_pdrop": 0.1,
|
7 |
+
"bos_token_id": 50256,
|
8 |
+
"embd_pdrop": 0.1,
|
9 |
+
"eos_token_id": 50256,
|
10 |
+
"initializer_range": 0.02,
|
11 |
+
"layer_norm_epsilon": 1e-05,
|
12 |
+
"max_new_tokens": 8,
|
13 |
+
"model_type": "gpt2",
|
14 |
+
"n_ctx": 1024,
|
15 |
+
"n_embd": 768,
|
16 |
+
"n_head": 12,
|
17 |
+
"n_inner": null,
|
18 |
+
"n_layer": 12,
|
19 |
+
"n_positions": 1024,
|
20 |
+
"reorder_and_upcast_attn": false,
|
21 |
+
"resid_pdrop": 0.1,
|
22 |
+
"scale_attn_by_inverse_layer_idx": false,
|
23 |
+
"scale_attn_weights": true,
|
24 |
+
"summary_activation": null,
|
25 |
+
"summary_first_dropout": 0.1,
|
26 |
+
"summary_proj_to_labels": true,
|
27 |
+
"summary_type": "cls_index",
|
28 |
+
"summary_use_proj": true,
|
29 |
+
"task_specific_params": {
|
30 |
+
"text-generation": {
|
31 |
+
"do_sample": true,
|
32 |
+
"max_length": 50
|
33 |
+
}
|
34 |
+
},
|
35 |
+
"torch_dtype": "float32",
|
36 |
+
"transformers_version": "4.32.0.dev0",
|
37 |
+
"use_cache": true,
|
38 |
+
"vocab_size": 50257
|
39 |
+
}
|
audioldm/audioldm2-large/language_model/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:350bb51cf4f23502f239009d12ce0230d166f9d3f5752196505c0a6d841a5514
|
3 |
+
size 497772432
|
audioldm/audioldm2-large/language_model/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:ca0febb7670925080c1737a3b36689cea7aefe48c2b45d2321f2ba0bbcbf08fc
|
3 |
+
size 497803293
|
audioldm/audioldm2-large/model_index.json
ADDED
@@ -0,0 +1,48 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AudioLDM2Pipeline",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"feature_extractor": [
|
5 |
+
"transformers",
|
6 |
+
"ClapFeatureExtractor"
|
7 |
+
],
|
8 |
+
"language_model": [
|
9 |
+
"transformers",
|
10 |
+
"GPT2Model"
|
11 |
+
],
|
12 |
+
"projection_model": [
|
13 |
+
"audioldm2",
|
14 |
+
"AudioLDM2ProjectionModel"
|
15 |
+
],
|
16 |
+
"scheduler": [
|
17 |
+
"diffusers",
|
18 |
+
"DDIMScheduler"
|
19 |
+
],
|
20 |
+
"text_encoder": [
|
21 |
+
"transformers",
|
22 |
+
"ClapModel"
|
23 |
+
],
|
24 |
+
"text_encoder_2": [
|
25 |
+
"transformers",
|
26 |
+
"T5EncoderModel"
|
27 |
+
],
|
28 |
+
"tokenizer": [
|
29 |
+
"transformers",
|
30 |
+
"RobertaTokenizerFast"
|
31 |
+
],
|
32 |
+
"tokenizer_2": [
|
33 |
+
"transformers",
|
34 |
+
"T5TokenizerFast"
|
35 |
+
],
|
36 |
+
"unet": [
|
37 |
+
"audioldm2",
|
38 |
+
"AudioLDM2UNet2DConditionModel"
|
39 |
+
],
|
40 |
+
"vae": [
|
41 |
+
"diffusers",
|
42 |
+
"AutoencoderKL"
|
43 |
+
],
|
44 |
+
"vocoder": [
|
45 |
+
"transformers",
|
46 |
+
"SpeechT5HifiGan"
|
47 |
+
]
|
48 |
+
}
|
audioldm/audioldm2-large/projection_model/config.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AudioLDM2ProjectionModel",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"langauge_model_dim": 768,
|
5 |
+
"text_encoder_1_dim": 1024,
|
6 |
+
"text_encoder_dim": 512
|
7 |
+
}
|
audioldm/audioldm2-large/projection_model/diffusion_pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:abba0622501d8cd9c640a726df5da03c124bf966bba98809af620dc2f2681f5f
|
3 |
+
size 4739951
|
audioldm/audioldm2-large/projection_model/diffusion_pytorch_model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d41d9363c1e9f7c455d1ce9d60d3c888793e295128a1bc722be96b9f5718a4ed
|
3 |
+
size 4737688
|
audioldm/audioldm2-large/scheduler/scheduler_config.json
ADDED
@@ -0,0 +1,19 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "DDIMScheduler",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"beta_end": 0.0195,
|
5 |
+
"beta_schedule": "scaled_linear",
|
6 |
+
"beta_start": 0.0015,
|
7 |
+
"clip_sample": false,
|
8 |
+
"clip_sample_range": 1.0,
|
9 |
+
"dynamic_thresholding_ratio": 0.995,
|
10 |
+
"num_train_timesteps": 1000,
|
11 |
+
"prediction_type": "epsilon",
|
12 |
+
"rescale_betas_zero_snr": false,
|
13 |
+
"sample_max_value": 1.0,
|
14 |
+
"set_alpha_to_one": false,
|
15 |
+
"steps_offset": 1,
|
16 |
+
"thresholding": false,
|
17 |
+
"timestep_spacing": "leading",
|
18 |
+
"trained_betas": null
|
19 |
+
}
|
audioldm/audioldm2-large/text_encoder/config.json
ADDED
@@ -0,0 +1,35 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"ClapModel"
|
4 |
+
],
|
5 |
+
"audio_config": {
|
6 |
+
"depths": [
|
7 |
+
2,
|
8 |
+
2,
|
9 |
+
12,
|
10 |
+
2
|
11 |
+
],
|
12 |
+
"fusion_num_hidden_layers": 2,
|
13 |
+
"hidden_size": 1024,
|
14 |
+
"model_type": "clap_audio_model",
|
15 |
+
"patch_embeds_hidden_size": 128,
|
16 |
+
"projection_hidden_size": 768
|
17 |
+
},
|
18 |
+
"hidden_size": 768,
|
19 |
+
"initializer_factor": 1.0,
|
20 |
+
"logit_scale_init_value": 14.285714285714285,
|
21 |
+
"model_type": "clap",
|
22 |
+
"num_hidden_layers": 16,
|
23 |
+
"projection_dim": 512,
|
24 |
+
"projection_hidden_act": "relu",
|
25 |
+
"text_config": {
|
26 |
+
"classifier_dropout": null,
|
27 |
+
"fusion_hidden_size": 768,
|
28 |
+
"fusion_num_hidden_layers": 2,
|
29 |
+
"initializer_range": 0.02,
|
30 |
+
"model_type": "clap_text_model",
|
31 |
+
"projection_hidden_size": 768
|
32 |
+
},
|
33 |
+
"torch_dtype": "float64",
|
34 |
+
"transformers_version": "4.32.0.dev0"
|
35 |
+
}
|
audioldm/audioldm2-large/text_encoder/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:a4a47b4a637dd58e9edb7b64a06acf37328b7cc3eafb0b8a85df895cc9e45d09
|
3 |
+
size 776327432
|
audioldm/audioldm2-large/text_encoder/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:637b3ff0f7b212cedafb00739521dc49d8f7953f12bfc1f76ff692f108a41ed0
|
3 |
+
size 776444665
|
audioldm/audioldm2-large/text_encoder_2/config.json
ADDED
@@ -0,0 +1,32 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"T5EncoderModel"
|
4 |
+
],
|
5 |
+
"classifier_dropout": 0.0,
|
6 |
+
"d_ff": 2816,
|
7 |
+
"d_kv": 64,
|
8 |
+
"d_model": 1024,
|
9 |
+
"decoder_start_token_id": 0,
|
10 |
+
"dense_act_fn": "gelu_new",
|
11 |
+
"dropout_rate": 0.1,
|
12 |
+
"eos_token_id": 1,
|
13 |
+
"feed_forward_proj": "gated-gelu",
|
14 |
+
"initializer_factor": 1.0,
|
15 |
+
"is_encoder_decoder": true,
|
16 |
+
"is_gated_act": true,
|
17 |
+
"layer_norm_epsilon": 1e-06,
|
18 |
+
"model_type": "t5",
|
19 |
+
"n_positions": 512,
|
20 |
+
"num_decoder_layers": 24,
|
21 |
+
"num_heads": 16,
|
22 |
+
"num_layers": 24,
|
23 |
+
"output_past": true,
|
24 |
+
"pad_token_id": 0,
|
25 |
+
"relative_attention_max_distance": 128,
|
26 |
+
"relative_attention_num_buckets": 32,
|
27 |
+
"tie_word_embeddings": false,
|
28 |
+
"torch_dtype": "float32",
|
29 |
+
"transformers_version": "4.32.0.dev0",
|
30 |
+
"use_cache": true,
|
31 |
+
"vocab_size": 32128
|
32 |
+
}
|
audioldm/audioldm2-large/text_encoder_2/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:c1d0c8f1c739db9343c12ea4b0e3f2c97a833b3c072c251e91d97b7326fefb4e
|
3 |
+
size 1364951064
|
audioldm/audioldm2-large/text_encoder_2/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:8c4be8e23954ef72bd0d623206a46b7e1ab7fa23f530b7b9f691d40785273b27
|
3 |
+
size 1364996921
|
audioldm/audioldm2-large/tokenizer/merges.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|
audioldm/audioldm2-large/tokenizer/special_tokens_map.json
ADDED
@@ -0,0 +1,15 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": "<s>",
|
3 |
+
"cls_token": "<s>",
|
4 |
+
"eos_token": "</s>",
|
5 |
+
"mask_token": {
|
6 |
+
"content": "<mask>",
|
7 |
+
"lstrip": true,
|
8 |
+
"normalized": false,
|
9 |
+
"rstrip": false,
|
10 |
+
"single_word": false
|
11 |
+
},
|
12 |
+
"pad_token": "<pad>",
|
13 |
+
"sep_token": "</s>",
|
14 |
+
"unk_token": "<unk>"
|
15 |
+
}
|
audioldm/audioldm2-large/tokenizer/tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
audioldm/audioldm2-large/tokenizer/tokenizer_config.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"add_prefix_space": false,
|
3 |
+
"bos_token": "<s>",
|
4 |
+
"clean_up_tokenization_spaces": true,
|
5 |
+
"cls_token": "<s>",
|
6 |
+
"eos_token": "</s>",
|
7 |
+
"errors": "replace",
|
8 |
+
"mask_token": "<mask>",
|
9 |
+
"max_length": null,
|
10 |
+
"model_max_length": 512,
|
11 |
+
"pad_to_multiple_of": null,
|
12 |
+
"pad_token": "<pad>",
|
13 |
+
"pad_token_type_id": 0,
|
14 |
+
"padding_side": "right",
|
15 |
+
"processor_class": "ClapProcessor",
|
16 |
+
"sep_token": "</s>",
|
17 |
+
"tokenizer_class": "RobertaTokenizer",
|
18 |
+
"trim_offsets": true,
|
19 |
+
"unk_token": "<unk>"
|
20 |
+
}
|
audioldm/audioldm2-large/tokenizer/vocab.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
audioldm/audioldm2-large/tokenizer_2/special_tokens_map.json
ADDED
@@ -0,0 +1,107 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"additional_special_tokens": [
|
3 |
+
"<extra_id_0>",
|
4 |
+
"<extra_id_1>",
|
5 |
+
"<extra_id_2>",
|
6 |
+
"<extra_id_3>",
|
7 |
+
"<extra_id_4>",
|
8 |
+
"<extra_id_5>",
|
9 |
+
"<extra_id_6>",
|
10 |
+
"<extra_id_7>",
|
11 |
+
"<extra_id_8>",
|
12 |
+
"<extra_id_9>",
|
13 |
+
"<extra_id_10>",
|
14 |
+
"<extra_id_11>",
|
15 |
+
"<extra_id_12>",
|
16 |
+
"<extra_id_13>",
|
17 |
+
"<extra_id_14>",
|
18 |
+
"<extra_id_15>",
|
19 |
+
"<extra_id_16>",
|
20 |
+
"<extra_id_17>",
|
21 |
+
"<extra_id_18>",
|
22 |
+
"<extra_id_19>",
|
23 |
+
"<extra_id_20>",
|
24 |
+
"<extra_id_21>",
|
25 |
+
"<extra_id_22>",
|
26 |
+
"<extra_id_23>",
|
27 |
+
"<extra_id_24>",
|
28 |
+
"<extra_id_25>",
|
29 |
+
"<extra_id_26>",
|
30 |
+
"<extra_id_27>",
|
31 |
+
"<extra_id_28>",
|
32 |
+
"<extra_id_29>",
|
33 |
+
"<extra_id_30>",
|
34 |
+
"<extra_id_31>",
|
35 |
+
"<extra_id_32>",
|
36 |
+
"<extra_id_33>",
|
37 |
+
"<extra_id_34>",
|
38 |
+
"<extra_id_35>",
|
39 |
+
"<extra_id_36>",
|
40 |
+
"<extra_id_37>",
|
41 |
+
"<extra_id_38>",
|
42 |
+
"<extra_id_39>",
|
43 |
+
"<extra_id_40>",
|
44 |
+
"<extra_id_41>",
|
45 |
+
"<extra_id_42>",
|
46 |
+
"<extra_id_43>",
|
47 |
+
"<extra_id_44>",
|
48 |
+
"<extra_id_45>",
|
49 |
+
"<extra_id_46>",
|
50 |
+
"<extra_id_47>",
|
51 |
+
"<extra_id_48>",
|
52 |
+
"<extra_id_49>",
|
53 |
+
"<extra_id_50>",
|
54 |
+
"<extra_id_51>",
|
55 |
+
"<extra_id_52>",
|
56 |
+
"<extra_id_53>",
|
57 |
+
"<extra_id_54>",
|
58 |
+
"<extra_id_55>",
|
59 |
+
"<extra_id_56>",
|
60 |
+
"<extra_id_57>",
|
61 |
+
"<extra_id_58>",
|
62 |
+
"<extra_id_59>",
|
63 |
+
"<extra_id_60>",
|
64 |
+
"<extra_id_61>",
|
65 |
+
"<extra_id_62>",
|
66 |
+
"<extra_id_63>",
|
67 |
+
"<extra_id_64>",
|
68 |
+
"<extra_id_65>",
|
69 |
+
"<extra_id_66>",
|
70 |
+
"<extra_id_67>",
|
71 |
+
"<extra_id_68>",
|
72 |
+
"<extra_id_69>",
|
73 |
+
"<extra_id_70>",
|
74 |
+
"<extra_id_71>",
|
75 |
+
"<extra_id_72>",
|
76 |
+
"<extra_id_73>",
|
77 |
+
"<extra_id_74>",
|
78 |
+
"<extra_id_75>",
|
79 |
+
"<extra_id_76>",
|
80 |
+
"<extra_id_77>",
|
81 |
+
"<extra_id_78>",
|
82 |
+
"<extra_id_79>",
|
83 |
+
"<extra_id_80>",
|
84 |
+
"<extra_id_81>",
|
85 |
+
"<extra_id_82>",
|
86 |
+
"<extra_id_83>",
|
87 |
+
"<extra_id_84>",
|
88 |
+
"<extra_id_85>",
|
89 |
+
"<extra_id_86>",
|
90 |
+
"<extra_id_87>",
|
91 |
+
"<extra_id_88>",
|
92 |
+
"<extra_id_89>",
|
93 |
+
"<extra_id_90>",
|
94 |
+
"<extra_id_91>",
|
95 |
+
"<extra_id_92>",
|
96 |
+
"<extra_id_93>",
|
97 |
+
"<extra_id_94>",
|
98 |
+
"<extra_id_95>",
|
99 |
+
"<extra_id_96>",
|
100 |
+
"<extra_id_97>",
|
101 |
+
"<extra_id_98>",
|
102 |
+
"<extra_id_99>"
|
103 |
+
],
|
104 |
+
"eos_token": "</s>",
|
105 |
+
"pad_token": "<pad>",
|
106 |
+
"unk_token": "<unk>"
|
107 |
+
}
|
audioldm/audioldm2-large/tokenizer_2/spiece.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d60acb128cf7b7f2536e8f38a5b18a05535c9e14c7a355904270e15b0945ea86
|
3 |
+
size 791656
|
audioldm/audioldm2-large/tokenizer_2/tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
audioldm/audioldm2-large/tokenizer_2/tokenizer_config.json
ADDED
@@ -0,0 +1,112 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"additional_special_tokens": [
|
3 |
+
"<extra_id_0>",
|
4 |
+
"<extra_id_1>",
|
5 |
+
"<extra_id_2>",
|
6 |
+
"<extra_id_3>",
|
7 |
+
"<extra_id_4>",
|
8 |
+
"<extra_id_5>",
|
9 |
+
"<extra_id_6>",
|
10 |
+
"<extra_id_7>",
|
11 |
+
"<extra_id_8>",
|
12 |
+
"<extra_id_9>",
|
13 |
+
"<extra_id_10>",
|
14 |
+
"<extra_id_11>",
|
15 |
+
"<extra_id_12>",
|
16 |
+
"<extra_id_13>",
|
17 |
+
"<extra_id_14>",
|
18 |
+
"<extra_id_15>",
|
19 |
+
"<extra_id_16>",
|
20 |
+
"<extra_id_17>",
|
21 |
+
"<extra_id_18>",
|
22 |
+
"<extra_id_19>",
|
23 |
+
"<extra_id_20>",
|
24 |
+
"<extra_id_21>",
|
25 |
+
"<extra_id_22>",
|
26 |
+
"<extra_id_23>",
|
27 |
+
"<extra_id_24>",
|
28 |
+
"<extra_id_25>",
|
29 |
+
"<extra_id_26>",
|
30 |
+
"<extra_id_27>",
|
31 |
+
"<extra_id_28>",
|
32 |
+
"<extra_id_29>",
|
33 |
+
"<extra_id_30>",
|
34 |
+
"<extra_id_31>",
|
35 |
+
"<extra_id_32>",
|
36 |
+
"<extra_id_33>",
|
37 |
+
"<extra_id_34>",
|
38 |
+
"<extra_id_35>",
|
39 |
+
"<extra_id_36>",
|
40 |
+
"<extra_id_37>",
|
41 |
+
"<extra_id_38>",
|
42 |
+
"<extra_id_39>",
|
43 |
+
"<extra_id_40>",
|
44 |
+
"<extra_id_41>",
|
45 |
+
"<extra_id_42>",
|
46 |
+
"<extra_id_43>",
|
47 |
+
"<extra_id_44>",
|
48 |
+
"<extra_id_45>",
|
49 |
+
"<extra_id_46>",
|
50 |
+
"<extra_id_47>",
|
51 |
+
"<extra_id_48>",
|
52 |
+
"<extra_id_49>",
|
53 |
+
"<extra_id_50>",
|
54 |
+
"<extra_id_51>",
|
55 |
+
"<extra_id_52>",
|
56 |
+
"<extra_id_53>",
|
57 |
+
"<extra_id_54>",
|
58 |
+
"<extra_id_55>",
|
59 |
+
"<extra_id_56>",
|
60 |
+
"<extra_id_57>",
|
61 |
+
"<extra_id_58>",
|
62 |
+
"<extra_id_59>",
|
63 |
+
"<extra_id_60>",
|
64 |
+
"<extra_id_61>",
|
65 |
+
"<extra_id_62>",
|
66 |
+
"<extra_id_63>",
|
67 |
+
"<extra_id_64>",
|
68 |
+
"<extra_id_65>",
|
69 |
+
"<extra_id_66>",
|
70 |
+
"<extra_id_67>",
|
71 |
+
"<extra_id_68>",
|
72 |
+
"<extra_id_69>",
|
73 |
+
"<extra_id_70>",
|
74 |
+
"<extra_id_71>",
|
75 |
+
"<extra_id_72>",
|
76 |
+
"<extra_id_73>",
|
77 |
+
"<extra_id_74>",
|
78 |
+
"<extra_id_75>",
|
79 |
+
"<extra_id_76>",
|
80 |
+
"<extra_id_77>",
|
81 |
+
"<extra_id_78>",
|
82 |
+
"<extra_id_79>",
|
83 |
+
"<extra_id_80>",
|
84 |
+
"<extra_id_81>",
|
85 |
+
"<extra_id_82>",
|
86 |
+
"<extra_id_83>",
|
87 |
+
"<extra_id_84>",
|
88 |
+
"<extra_id_85>",
|
89 |
+
"<extra_id_86>",
|
90 |
+
"<extra_id_87>",
|
91 |
+
"<extra_id_88>",
|
92 |
+
"<extra_id_89>",
|
93 |
+
"<extra_id_90>",
|
94 |
+
"<extra_id_91>",
|
95 |
+
"<extra_id_92>",
|
96 |
+
"<extra_id_93>",
|
97 |
+
"<extra_id_94>",
|
98 |
+
"<extra_id_95>",
|
99 |
+
"<extra_id_96>",
|
100 |
+
"<extra_id_97>",
|
101 |
+
"<extra_id_98>",
|
102 |
+
"<extra_id_99>"
|
103 |
+
],
|
104 |
+
"clean_up_tokenization_spaces": true,
|
105 |
+
"eos_token": "</s>",
|
106 |
+
"extra_ids": 100,
|
107 |
+
"model_max_length": 128,
|
108 |
+
"pad_token": "<pad>",
|
109 |
+
"sp_model_kwargs": {},
|
110 |
+
"tokenizer_class": "T5Tokenizer",
|
111 |
+
"unk_token": "<unk>"
|
112 |
+
}
|
audioldm/audioldm2-large/unet/config.json
ADDED
@@ -0,0 +1,78 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AudioLDM2UNet2DConditionModel",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"act_fn": "silu",
|
5 |
+
"attention_head_dim": 8,
|
6 |
+
"block_out_channels": [
|
7 |
+
128,
|
8 |
+
256,
|
9 |
+
384,
|
10 |
+
640
|
11 |
+
],
|
12 |
+
"class_embed_type": null,
|
13 |
+
"class_embeddings_concat": false,
|
14 |
+
"conv_in_kernel": 3,
|
15 |
+
"conv_out_kernel": 3,
|
16 |
+
"cross_attention_dim": [
|
17 |
+
[
|
18 |
+
null,
|
19 |
+
768,
|
20 |
+
1024,
|
21 |
+
null
|
22 |
+
],
|
23 |
+
[
|
24 |
+
null,
|
25 |
+
768,
|
26 |
+
1024,
|
27 |
+
null
|
28 |
+
],
|
29 |
+
[
|
30 |
+
null,
|
31 |
+
768,
|
32 |
+
1024,
|
33 |
+
null
|
34 |
+
],
|
35 |
+
[
|
36 |
+
null,
|
37 |
+
768,
|
38 |
+
1024,
|
39 |
+
null
|
40 |
+
]
|
41 |
+
],
|
42 |
+
"down_block_types": [
|
43 |
+
"DownBlock2D",
|
44 |
+
"CrossAttnDownBlock2D",
|
45 |
+
"CrossAttnDownBlock2D",
|
46 |
+
"CrossAttnDownBlock2D"
|
47 |
+
],
|
48 |
+
"downsample_padding": 1,
|
49 |
+
"flip_sin_to_cos": true,
|
50 |
+
"freq_shift": 0,
|
51 |
+
"in_channels": 8,
|
52 |
+
"layers_per_block": 2,
|
53 |
+
"mid_block_scale_factor": 1,
|
54 |
+
"mid_block_type": "UNetMidBlock2DCrossAttn",
|
55 |
+
"norm_eps": 1e-05,
|
56 |
+
"norm_num_groups": 32,
|
57 |
+
"num_attention_heads": null,
|
58 |
+
"num_class_embeds": null,
|
59 |
+
"only_cross_attention": false,
|
60 |
+
"out_channels": 8,
|
61 |
+
"projection_class_embeddings_input_dim": null,
|
62 |
+
"resnet_time_scale_shift": "default",
|
63 |
+
"sample_size": 256,
|
64 |
+
"time_cond_proj_dim": null,
|
65 |
+
"time_embedding_act_fn": null,
|
66 |
+
"time_embedding_dim": null,
|
67 |
+
"time_embedding_type": "positional",
|
68 |
+
"timestep_post_act": null,
|
69 |
+
"transformer_layers_per_block": 2,
|
70 |
+
"up_block_types": [
|
71 |
+
"CrossAttnUpBlock2D",
|
72 |
+
"CrossAttnUpBlock2D",
|
73 |
+
"CrossAttnUpBlock2D",
|
74 |
+
"UpBlock2D"
|
75 |
+
],
|
76 |
+
"upcast_attention": false,
|
77 |
+
"use_linear_projection": false
|
78 |
+
}
|
audioldm/audioldm2-large/unet/diffusion_pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:0002541e3d5ef789055304622fcf5d9b810dc413724ab1081b6c57d3c319d1ba
|
3 |
+
size 2873458601
|
audioldm/audioldm2-large/unet/diffusion_pytorch_model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:c58b1585fc87e9fb31cb16e049100c3626685ab418a4a1f48a370713f0131d13
|
3 |
+
size 2872468672
|
audioldm/audioldm2-large/vae/config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AutoencoderKL",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"act_fn": "silu",
|
5 |
+
"block_out_channels": [
|
6 |
+
128,
|
7 |
+
256,
|
8 |
+
512
|
9 |
+
],
|
10 |
+
"down_block_types": [
|
11 |
+
"DownEncoderBlock2D",
|
12 |
+
"DownEncoderBlock2D",
|
13 |
+
"DownEncoderBlock2D"
|
14 |
+
],
|
15 |
+
"force_upcast": true,
|
16 |
+
"in_channels": 1,
|
17 |
+
"latent_channels": 8,
|
18 |
+
"layers_per_block": 2,
|
19 |
+
"norm_num_groups": 32,
|
20 |
+
"out_channels": 1,
|
21 |
+
"sample_size": 1024,
|
22 |
+
"scaling_factor": 0.400870144367218,
|
23 |
+
"up_block_types": [
|
24 |
+
"UpDecoderBlock2D",
|
25 |
+
"UpDecoderBlock2D",
|
26 |
+
"UpDecoderBlock2D"
|
27 |
+
]
|
28 |
+
}
|
audioldm/audioldm2-large/vae/diffusion_pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:b3494aadd9cf3e3f0cbb4e913f9b35a25da4a3cb709852e204b667ae5890f758
|
3 |
+
size 221586761
|
audioldm/audioldm2-large/vae/diffusion_pytorch_model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:5f8ddddc5c45eddaab38a67a434e8a64486964540ba3fc248a0da7cbd599d4ad
|
3 |
+
size 221530308
|
audioldm/audioldm2-large/vocoder/config.json
ADDED
@@ -0,0 +1,50 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"SpeechT5HifiGan"
|
4 |
+
],
|
5 |
+
"initializer_range": 0.01,
|
6 |
+
"leaky_relu_slope": 0.1,
|
7 |
+
"model_in_dim": 64,
|
8 |
+
"model_type": "hifigan",
|
9 |
+
"normalize_before": false,
|
10 |
+
"resblock_dilation_sizes": [
|
11 |
+
[
|
12 |
+
1,
|
13 |
+
3,
|
14 |
+
5
|
15 |
+
],
|
16 |
+
[
|
17 |
+
1,
|
18 |
+
3,
|
19 |
+
5
|
20 |
+
],
|
21 |
+
[
|
22 |
+
1,
|
23 |
+
3,
|
24 |
+
5
|
25 |
+
]
|
26 |
+
],
|
27 |
+
"resblock_kernel_sizes": [
|
28 |
+
3,
|
29 |
+
7,
|
30 |
+
11
|
31 |
+
],
|
32 |
+
"sampling_rate": 16000,
|
33 |
+
"torch_dtype": "float32",
|
34 |
+
"transformers_version": "4.32.0.dev0",
|
35 |
+
"upsample_initial_channel": 1024,
|
36 |
+
"upsample_kernel_sizes": [
|
37 |
+
16,
|
38 |
+
16,
|
39 |
+
8,
|
40 |
+
4,
|
41 |
+
4
|
42 |
+
],
|
43 |
+
"upsample_rates": [
|
44 |
+
5,
|
45 |
+
4,
|
46 |
+
2,
|
47 |
+
2,
|
48 |
+
2
|
49 |
+
]
|
50 |
+
}
|
audioldm/audioldm2-large/vocoder/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:d9dc6513c30a5b86c2497712690c04fe74b4aa79fdab6d490b34fcb4e24c590c
|
3 |
+
size 221079092
|
audioldm/audioldm2-large/vocoder/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:f9fbefc2b31c85d1dabe98e53d09ac88039af411162a7e641040a9c2b5f62364
|
3 |
+
size 221120349
|
audioldm/audioldm2-music/feature_extractor/preprocessor_config.json
ADDED
@@ -0,0 +1,22 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"chunk_length_s": 10,
|
3 |
+
"feature_extractor_type": "ClapFeatureExtractor",
|
4 |
+
"feature_size": 64,
|
5 |
+
"fft_window_size": 1024,
|
6 |
+
"frequency_max": 14000,
|
7 |
+
"frequency_min": 50,
|
8 |
+
"hop_length": 480,
|
9 |
+
"max_length_s": 10,
|
10 |
+
"n_fft": 1024,
|
11 |
+
"nb_frequency_bins": 513,
|
12 |
+
"nb_max_frames": 1000,
|
13 |
+
"nb_max_samples": 480000,
|
14 |
+
"padding": "repeatpad",
|
15 |
+
"padding_side": "right",
|
16 |
+
"padding_value": 0.0,
|
17 |
+
"processor_class": "ClapProcessor",
|
18 |
+
"return_attention_mask": false,
|
19 |
+
"sampling_rate": 48000,
|
20 |
+
"top_db": null,
|
21 |
+
"truncation": "rand_trunc"
|
22 |
+
}
|
audioldm/audioldm2-music/language_model/config.json
ADDED
@@ -0,0 +1,39 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"activation_function": "gelu_new",
|
3 |
+
"architectures": [
|
4 |
+
"GPT2Model"
|
5 |
+
],
|
6 |
+
"attn_pdrop": 0.1,
|
7 |
+
"bos_token_id": 50256,
|
8 |
+
"embd_pdrop": 0.1,
|
9 |
+
"eos_token_id": 50256,
|
10 |
+
"initializer_range": 0.02,
|
11 |
+
"layer_norm_epsilon": 1e-05,
|
12 |
+
"max_new_tokens": 8,
|
13 |
+
"model_type": "gpt2",
|
14 |
+
"n_ctx": 1024,
|
15 |
+
"n_embd": 768,
|
16 |
+
"n_head": 12,
|
17 |
+
"n_inner": null,
|
18 |
+
"n_layer": 12,
|
19 |
+
"n_positions": 1024,
|
20 |
+
"reorder_and_upcast_attn": false,
|
21 |
+
"resid_pdrop": 0.1,
|
22 |
+
"scale_attn_by_inverse_layer_idx": false,
|
23 |
+
"scale_attn_weights": true,
|
24 |
+
"summary_activation": null,
|
25 |
+
"summary_first_dropout": 0.1,
|
26 |
+
"summary_proj_to_labels": true,
|
27 |
+
"summary_type": "cls_index",
|
28 |
+
"summary_use_proj": true,
|
29 |
+
"task_specific_params": {
|
30 |
+
"text-generation": {
|
31 |
+
"do_sample": true,
|
32 |
+
"max_length": 50
|
33 |
+
}
|
34 |
+
},
|
35 |
+
"torch_dtype": "float32",
|
36 |
+
"transformers_version": "4.32.0.dev0",
|
37 |
+
"use_cache": true,
|
38 |
+
"vocab_size": 50257
|
39 |
+
}
|
audioldm/audioldm2-music/language_model/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:8c57787555e1feb378e69e676a9d4f384363150dee6eeef390c47c1a5a99525d
|
3 |
+
size 497772432
|
audioldm/audioldm2-music/language_model/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:be4e5b755437914957edb250243e323fa2b38ab53f097078bea7c2d78aeae507
|
3 |
+
size 497803293
|
audioldm/audioldm2-music/model_index.json
ADDED
@@ -0,0 +1,48 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AudioLDM2Pipeline",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"feature_extractor": [
|
5 |
+
"transformers",
|
6 |
+
"ClapFeatureExtractor"
|
7 |
+
],
|
8 |
+
"language_model": [
|
9 |
+
"transformers",
|
10 |
+
"GPT2Model"
|
11 |
+
],
|
12 |
+
"projection_model": [
|
13 |
+
"audioldm2",
|
14 |
+
"AudioLDM2ProjectionModel"
|
15 |
+
],
|
16 |
+
"scheduler": [
|
17 |
+
"diffusers",
|
18 |
+
"DDIMScheduler"
|
19 |
+
],
|
20 |
+
"text_encoder": [
|
21 |
+
"transformers",
|
22 |
+
"ClapModel"
|
23 |
+
],
|
24 |
+
"text_encoder_2": [
|
25 |
+
"transformers",
|
26 |
+
"T5EncoderModel"
|
27 |
+
],
|
28 |
+
"tokenizer": [
|
29 |
+
"transformers",
|
30 |
+
"RobertaTokenizerFast"
|
31 |
+
],
|
32 |
+
"tokenizer_2": [
|
33 |
+
"transformers",
|
34 |
+
"T5TokenizerFast"
|
35 |
+
],
|
36 |
+
"unet": [
|
37 |
+
"audioldm2",
|
38 |
+
"AudioLDM2UNet2DConditionModel"
|
39 |
+
],
|
40 |
+
"vae": [
|
41 |
+
"diffusers",
|
42 |
+
"AutoencoderKL"
|
43 |
+
],
|
44 |
+
"vocoder": [
|
45 |
+
"transformers",
|
46 |
+
"SpeechT5HifiGan"
|
47 |
+
]
|
48 |
+
}
|
audioldm/audioldm2-music/projection_model/config.json
ADDED
@@ -0,0 +1,7 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "AudioLDM2ProjectionModel",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"langauge_model_dim": 768,
|
5 |
+
"text_encoder_1_dim": 1024,
|
6 |
+
"text_encoder_dim": 512
|
7 |
+
}
|
audioldm/audioldm2-music/projection_model/diffusion_pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:91e9680e70c34aa7957b8d0cfdce48fe8cd145b509d672b83d3d090863d77946
|
3 |
+
size 4739951
|
audioldm/audioldm2-music/projection_model/diffusion_pytorch_model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:2d58536f307aec6d114f8017c0c0e46762a35bce76f418f8ff7cee0c68ebc8f8
|
3 |
+
size 4737688
|
audioldm/audioldm2-music/scheduler/scheduler_config.json
ADDED
@@ -0,0 +1,19 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_class_name": "DDIMScheduler",
|
3 |
+
"_diffusers_version": "0.20.0.dev0",
|
4 |
+
"beta_end": 0.0195,
|
5 |
+
"beta_schedule": "scaled_linear",
|
6 |
+
"beta_start": 0.0015,
|
7 |
+
"clip_sample": false,
|
8 |
+
"clip_sample_range": 1.0,
|
9 |
+
"dynamic_thresholding_ratio": 0.995,
|
10 |
+
"num_train_timesteps": 1000,
|
11 |
+
"prediction_type": "epsilon",
|
12 |
+
"rescale_betas_zero_snr": false,
|
13 |
+
"sample_max_value": 1.0,
|
14 |
+
"set_alpha_to_one": false,
|
15 |
+
"steps_offset": 1,
|
16 |
+
"thresholding": false,
|
17 |
+
"timestep_spacing": "leading",
|
18 |
+
"trained_betas": null
|
19 |
+
}
|
audioldm/audioldm2-music/text_encoder/config.json
ADDED
@@ -0,0 +1,35 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"ClapModel"
|
4 |
+
],
|
5 |
+
"audio_config": {
|
6 |
+
"depths": [
|
7 |
+
2,
|
8 |
+
2,
|
9 |
+
12,
|
10 |
+
2
|
11 |
+
],
|
12 |
+
"fusion_num_hidden_layers": 2,
|
13 |
+
"hidden_size": 1024,
|
14 |
+
"model_type": "clap_audio_model",
|
15 |
+
"patch_embeds_hidden_size": 128,
|
16 |
+
"projection_hidden_size": 768
|
17 |
+
},
|
18 |
+
"hidden_size": 768,
|
19 |
+
"initializer_factor": 1.0,
|
20 |
+
"logit_scale_init_value": 14.285714285714285,
|
21 |
+
"model_type": "clap",
|
22 |
+
"num_hidden_layers": 16,
|
23 |
+
"projection_dim": 512,
|
24 |
+
"projection_hidden_act": "relu",
|
25 |
+
"text_config": {
|
26 |
+
"classifier_dropout": null,
|
27 |
+
"fusion_hidden_size": 768,
|
28 |
+
"fusion_num_hidden_layers": 2,
|
29 |
+
"initializer_range": 0.02,
|
30 |
+
"model_type": "clap_text_model",
|
31 |
+
"projection_hidden_size": 768
|
32 |
+
},
|
33 |
+
"torch_dtype": "float64",
|
34 |
+
"transformers_version": "4.32.0.dev0"
|
35 |
+
}
|
audioldm/audioldm2-music/text_encoder/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:a4a47b4a637dd58e9edb7b64a06acf37328b7cc3eafb0b8a85df895cc9e45d09
|
3 |
+
size 776327432
|
audioldm/audioldm2-music/text_encoder/pytorch_model.bin
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:637b3ff0f7b212cedafb00739521dc49d8f7953f12bfc1f76ff692f108a41ed0
|
3 |
+
size 776444665
|
audioldm/audioldm2-music/text_encoder_2/config.json
ADDED
@@ -0,0 +1,32 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"architectures": [
|
3 |
+
"T5EncoderModel"
|
4 |
+
],
|
5 |
+
"classifier_dropout": 0.0,
|
6 |
+
"d_ff": 2816,
|
7 |
+
"d_kv": 64,
|
8 |
+
"d_model": 1024,
|
9 |
+
"decoder_start_token_id": 0,
|
10 |
+
"dense_act_fn": "gelu_new",
|
11 |
+
"dropout_rate": 0.1,
|
12 |
+
"eos_token_id": 1,
|
13 |
+
"feed_forward_proj": "gated-gelu",
|
14 |
+
"initializer_factor": 1.0,
|
15 |
+
"is_encoder_decoder": true,
|
16 |
+
"is_gated_act": true,
|
17 |
+
"layer_norm_epsilon": 1e-06,
|
18 |
+
"model_type": "t5",
|
19 |
+
"n_positions": 512,
|
20 |
+
"num_decoder_layers": 24,
|
21 |
+
"num_heads": 16,
|
22 |
+
"num_layers": 24,
|
23 |
+
"output_past": true,
|
24 |
+
"pad_token_id": 0,
|
25 |
+
"relative_attention_max_distance": 128,
|
26 |
+
"relative_attention_num_buckets": 32,
|
27 |
+
"tie_word_embeddings": false,
|
28 |
+
"torch_dtype": "float32",
|
29 |
+
"transformers_version": "4.32.0.dev0",
|
30 |
+
"use_cache": true,
|
31 |
+
"vocab_size": 32128
|
32 |
+
}
|
audioldm/audioldm2-music/text_encoder_2/model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:c1d0c8f1c739db9343c12ea4b0e3f2c97a833b3c072c251e91d97b7326fefb4e
|
3 |
+
size 1364951064
|