--- language: - en - zh - de - es - ru - ko - fr - ja - pt - tr - pl - ca - nl - ar - sv - it - id - hi - fi - vi - he - uk - el - ms - cs - ro - da - hu - ta - 'no' - th - ur - hr - bg - lt - la - mi - ml - cy - sk - te - fa - lv - bn - sr - az - sl - kn - et - mk - br - eu - is - hy - ne - mn - bs - kk - sq - sw - gl - mr - pa - si - km - sn - yo - so - af - oc - ka - be - tg - sd - gu - am - yi - lo - uz - fo - ht - ps - tk - nn - mt - sa - lb - my - bo - tl - mg - as - tt - haw - ln - ha - ba - jw - su tags: - audio - automatic-speech-recognition license: mit library_name: ctranslate2 --- # Breeze-ASR-25 模型 for CTranslate2 本倉庫包含 [MediaTek-Research/Breeze-ASR-25](https://huggingface.co/MediaTek-Research/Breeze-ASR-25) 模型轉換為 [CTranslate2](https://github.com/OpenNMT/CTranslate2) 格式的版本。 該模型可用於 CTranslate2 或基於 CTranslate2 的專案,如 [faster-whisper](https://github.com/systran/faster-whisper)。 ## 範例 ```python from faster_whisper import WhisperModel model = WhisperModel("SoybeanMilk/faster-whisper-Breeze-ASR-25") segments, info = model.transcribe("audio.wav") for segment in segments: print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)) ``` ## 轉換細節 原始模型通過以下命令轉換: ``` ct2-transformers-converter \ --model MediaTek-Research/Breeze-ASR-25 \ --output_dir faster-whisper-Breeze-ASR-25 \ --copy_files tokenizer.json preprocessor_config.json \ --quantization float16 ``` 注意:模型權重以 FP16 格式保存。加載模型時可通過 [`CTranslate2 的 compute_type 選項`](https://opennmt.net/CTranslate2/quantization.html) 更改類型。 ## 更多資訊 **關於原始模型的更多資訊,請參見其 [模型卡](https://huggingface.co/MediaTek-Research/Breeze-ASR-25)