--- license: apache-2.0 language: tr tags: - llama - reasoning - Turkish - causal-lm --- # 🧠 LLaMA 3.1 8B - Türkçe Akıl Yürütme (Reasoning) Fine-Tuned Bu model, Meta'nın LLaMA 3.1 8B taban modeli üzerine Türkçe dilinde doğal akıl yürütme yeteneği kazandırmak amacıyla fine-tune edilmiştir. (*) (*) Model test aşamasındadır, finetune veri seti ve detaylı bilgi ilerde paylaşılacaktır. ## 🔧 Eğitim Bilgileri - Base Model: `meta-llama/Llama-3.1-8B` - Fine-Tuning Yöntemi: PEFT + LoRA → Merge edildi - Eğitim Verisi: ~8 bin adet sentetik reasoning Türkçe örnek - Epochs: 3 - Final Loss: ~1.41 - Precision: float16 ## 📌 Kullanım Örneği ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr", torch_dtype=torch.float16) tokenizer = AutoTokenizer.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr") prompt = "<|user|>\nKuantum fiziği nedir ve neden önemlidir?\n<|assistant|>\n" inputs = tokenizer(prompt, return_tensors="pt").to("cuda") output = model.generate(**inputs, max_new_tokens=200) print(tokenizer.decode(output[0], skip_special_tokens=True))