🧠 Qwen 2.5 7B - Türkçe Akıl Yürütme (Reasoning) Fine-Tuned

Bu model, Alibaba'nın Qwen 2.5 7B Instruct taban modeli üzerine Türkçe dilinde doğal akıl yürütme yeteneği kazandırmak amacıyla fine-tune edilmiştir. (*)

(*) Model test aşamasındadır, finetune veri seti ve detaylı bilgi ilerde paylaşılacaktır.

🔧 Eğitim Bilgileri

  • Base Model: Qwen/Qwen2.5-7B-Instruct
  • Fine-Tuning Yöntemi: PEFT + LoRA → Merge edildi
  • Eğitim Verisi: ~30 bin adet sentetik reasoning Türkçe örnek
  • Epochs: 1
  • Final Loss: 1.54
  • Precision: bfloat16 (BF16)

📌 Kullanım Örneği

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("hosasmek/qwen2.5-7b-instruct-reasoning-tr", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("hosasmek/qwen2.5-7b-instruct-reasoning-tr", trust_remote_code=True)

messages = [
    {"role": "system", "content": "Sen, bilgili ve yardımsever bir yapay zekâ asistanısın."},
    {"role": "user", "content": "Bir tünelin içinde ses neden yankılanır?"}
]

prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

output = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Downloads last month
0
Safetensors
Model size
7.62B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support