A newer version of this model is available: openai/whisper-small

Whisper Large V3 Turbo - Hmong ASR

Fine-tuned OpenAI Whisper Samll สำหรับการรู้จำเสียงพูด (ASR) ภาษาม้ง (Hmong) โดยใช้ชุดข้อมูล Mozilla Common Voice 17.0

📌 รายละเอียดโมเดล

Base model: openai/whisper-small

Language: Hmong (hmn)

Dataset: mozilla-foundation/common_voice_17_0

Metric: WER (Word Error Rate)

License: Apache-2.0

🚀 วิธีใช้งาน

  1. ใช้งานผ่าน 🤗 Transformers
from transformers import pipeline

transcriber = pipeline(
    "automatic-speech-recognition",
    model="Pakorn2112/whiper-small-Hmong-asr"
)

result = transcriber("hmong_sample.wav")
print(result["text"])
  1. ใช้งานผ่าน Gradio Demo

import gradio as gr
from transformers import pipeline

โหลดโมเดล

transcriber = pipeline(
    "automatic-speech-recognition",
    model="Pakorn2112/whiper-small-Hmong-asr"
)

ฟังก์ชันถอดเสียง

def transcribe1(audio):
    return transcriber(audio)["text"]

UI Gradio

iface = gr.Interface(
    fn=transcribe1,
    inputs=gr.Audio(sources=["upload","microphone"], type="filepath"),
    outputs="text",
    title="Whisper Large V3 Turbo - Hmong",
    description="Demo: Hmong speech recognition fine-tuned from Whisper Small"
)

iface.launch()

🎧 ตัวอย่างผลลัพธ์ (Examples) Input (เสียงพูด) Output (ข้อความที่ถอดได้)

🎤 "Koj nyob li cas lawm os?"	"Koj nyob li cas lawm os?"
🎤 "Kuv hu ua Paj Ntaub."	"Kuv hu ua Paj Ntaub."
🎤 "Peb mus kawm ntawv nag hmo."	"Peb mus kawm ntawv nag hmo."

📊 การประเมินผล

โมเดลนี้ถูกประเมินด้วย Word Error Rate (WER)

epoch wer
100 24.77

500 6.712565 0.057878

📌 ค่า WER ที่ได้จะแสดงในหน้าโมเดล Hugging Face (evaluation logs)

📖 Citation

ถ้าคุณใช้โมเดลนี้ในงานวิจัย กรุณาอ้างอิงดังนี้:

@misc{pakorn2025hmongasr,
  title = {Whisper Large V3 Turbo - Hmong ASR},
  author = {Pakorn2112},
  year = {2025},
  publisher = {Hugging Face},
  howpublished = {\url{https://huggingface.co/Pakorn2112/whiper-small-Hmong-asr}},
}

📜 License

โมเดลนี้เผยแพร่ภายใต้สัญญาอนุญาต Apache License 2.0

Downloads last month
17
Safetensors
Model size
242M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Pakorn2112/whiper-small-Hmong-asr

Finetuned
(2950)
this model

Dataset used to train Pakorn2112/whiper-small-Hmong-asr