File size: 1,212 Bytes
99b1e89
 
 
 
 
 
 
 
 
 
 
 
a8c280a
 
 
99b1e89
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
---
license: apache-2.0
language: tr
tags:
  - llama
  - reasoning
  - Turkish
  - causal-lm
---

# 🧠 LLaMA 3.1 8B - Türkçe Akıl Yürütme (Reasoning) Fine-Tuned

Bu model, Meta'nın LLaMA 3.1 8B taban modeli üzerine Türkçe dilinde doğal akıl yürütme yeteneği kazandırmak amacıyla fine-tune edilmiştir. (*) 

(*) Model test aşamasındadır, finetune veri seti ve detaylı bilgi ilerde paylaşılacaktır.

## 🔧 Eğitim Bilgileri

- Base Model: `meta-llama/Llama-3.1-8B`
- Fine-Tuning Yöntemi: PEFT + LoRA → Merge edildi
- Eğitim Verisi: ~8 bin adet sentetik reasoning Türkçe örnek
- Epochs: 3
- Final Loss: ~1.41
- Precision: float16

## 📌 Kullanım Örneği

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr")

prompt = "<|user|>\nKuantum fiziği nedir ve neden önemlidir?\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(output[0], skip_special_tokens=True))