hasanyazar commited on
Commit
99b1e89
·
verified ·
1 Parent(s): 8e82896

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +36 -3
README.md CHANGED
@@ -1,3 +1,36 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language: tr
4
+ tags:
5
+ - llama
6
+ - reasoning
7
+ - Turkish
8
+ - causal-lm
9
+ ---
10
+
11
+ # 🧠 LLaMA 3.1 8B - Türkçe Akıl Yürütme (Reasoning) Fine-Tuned
12
+
13
+ Bu model, Meta'nın LLaMA 3.1 8B taban modeli üzerine Türkçe dilinde doğal akıl yürütme yeteneği kazandırmak amacıyla fine-tune edilmiştir.
14
+
15
+ ## 🔧 Eğitim Bilgileri
16
+
17
+ - Base Model: `meta-llama/Llama-3.1-8B`
18
+ - Fine-Tuning Yöntemi: PEFT + LoRA → Merge edildi
19
+ - Eğitim Verisi: ~8 bin adet sentetik reasoning Türkçe örnek
20
+ - Epochs: 3
21
+ - Final Loss: ~1.41
22
+ - Precision: float16
23
+
24
+ ## 📌 Kullanım Örneği
25
+
26
+ ```python
27
+ from transformers import AutoModelForCausalLM, AutoTokenizer
28
+
29
+ model = AutoModelForCausalLM.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr", torch_dtype=torch.float16)
30
+ tokenizer = AutoTokenizer.from_pretrained("HasanYazar/llama3.1-8b-reasoning-tr")
31
+
32
+ prompt = "<|user|>\nKuantum fiziği nedir ve neden önemlidir?\n<|assistant|>\n"
33
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
34
+
35
+ output = model.generate(**inputs, max_new_tokens=200)
36
+ print(tokenizer.decode(output[0], skip_special_tokens=True))