🧠 LLaMA 3.1 8B - Türkçe Akıl Yürütme (Reasoning) Fine-Tuned

Bu model, Meta'nın LLaMA 3.1 8B taban modeli üzerine Türkçe dilinde doğal akıl yürütme yeteneği kazandırmak amacıyla fine-tune edilmiştir. (*)

(*) Model test aşamasındadır, finetune veri seti ve detaylı bilgi ilerde paylaşılacaktır.

🔧 Eğitim Bilgileri

  • Base Model: meta-llama/Llama-3.1-8B
  • Fine-Tuning Yöntemi: PEFT + LoRA → Merge edildi
  • Eğitim Verisi: ~8 bin adet sentetik reasoning Türkçe örnek
  • Epochs: 3
  • Final Loss: ~1.41
  • Precision: float16

📌 Kullanım Örneği

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr")

prompt = "<|user|>\nKuantum fiziği nedir ve neden önemlidir?\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Downloads last month
17
Safetensors
Model size
8.03B params
Tensor type
FP16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support