Phối hợp training model tốt hơn cho cộng đồng
Chào team, model của các bạn rất ấn tượng. Bên mình là Trung tâm BKAI ở Đại học BKHN cũng đang train một model tương tự. Bên mình có tài nguyên tính toán khá mạnh so với 4x RTX 3090 các bạn đang sử dụng. Nếu team các bạn sẵn sàng thì hai bên có thể phối hợp để train một model với nhiều data và steps hơn để release cho cộng đồng :)
Mong dự án cung cấp thêm file model .pt để mọi người cùng phát triển thêm
Mình đang prune model, mạnh tay cắt giảm layers của F5-TTS để tăng tốc rồi pretrain/finetune lại từ đầu.
là giờ dừng lại ở 600 train lại chứ không tiếp à bác
Dừng rồi. Overfit. Khoảng 700,000 steps là hết. Đang train Female lại với pruned model HIGH-quality, cắt bớt 8 layers (từ 22 layers còn 14 layers), để train 400k-500k xem nó thế nào, so far so good, dù tiếng chưa clone như bản gốc ở 120,000 steps.
Chào team, model của các bạn rất ấn tượng. Bên mình là Trung tâm BKAI ở Đại học BKHN cũng đang train một model tương tự. Bên mình có tài nguyên tính toán khá mạnh so với 4x RTX 3090 các bạn đang sử dụng. Nếu team các bạn sẵn sàng thì hai bên có thể phối hợp để train một model với nhiều data và steps hơn để release cho cộng đồng :)
Ủng hộ thôi.
EraX-Smile-FAST-V1.0 sẽ có trong vài ngày tới (Female for now), pruning strategy khá gọn. Sẽ chia sẻ cả chiến lược này và SNR.
Mong dự án cung cấp thêm file model .pt để mọi người cùng phát triển thêm
Mình chuyển safetensors nhẹ nhiều, và có thể train tiếp mà.