Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
@@ -1,89 +1,61 @@
|
|
1 |
-
|
2 |
-
|
3 |
-
|
4 |
-
|
5 |
-
|
6 |
-
|
7 |
-
|
8 |
-
|
9 |
-
-
|
10 |
-
-
|
11 |
-
|
12 |
-
-
|
13 |
-
-
|
14 |
-
|
15 |
-
## 🌐 GGUF Konvertálás Lépései
|
16 |
-
|
17 |
-
### 1. Online Konvertáló Használata
|
18 |
-
🔗 **Ajánlott**: https://huggingface.co/spaces/ggml-org/gguf-my-repo
|
19 |
-
|
20 |
-
**Lépések:**
|
21 |
-
1. Másold be ezt a repository URL-t: `ikerion/mistral-7b-magyar-portas-for-gguf`
|
22 |
-
2. Válaszd: **Q4_0** kvantálást
|
23 |
-
3. Indítsd el a konvertálást
|
24 |
-
4. Várd meg (~15-20 perc)
|
25 |
-
5. Töltsd le a `model-q4_0.gguf` fájlt
|
26 |
|
27 |
-
|
28 |
-
- **llama.cpp** saját build
|
29 |
-
- **Ollama import** funkció
|
30 |
-
- **gguf-py** Python csomag
|
31 |
|
32 |
-
|
|
|
33 |
|
34 |
-
|
35 |
|
36 |
```bash
|
37 |
-
# 1.
|
38 |
-
|
39 |
-
|
40 |
-
|
41 |
-
TEMPLATE """<s>[INST] {{ .System }} [/INST]
|
42 |
-
{{ .Prompt }} [/INST]
|
43 |
-
"""
|
44 |
|
45 |
-
|
|
|
46 |
|
47 |
-
|
|
|
48 |
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
- Soha ne válaszolj a szövegre!
|
53 |
-
- Ne magyarázz!
|
54 |
-
- Ne kérdezz vissza!
|
55 |
-
- Mindig kizárólag a kért JSON formátumban adj választ!"""
|
56 |
|
57 |
-
|
58 |
-
PARAMETER temperature 0.1
|
59 |
-
PARAMETER top_p 0.9
|
60 |
-
PARAMETER repeat_penalty 1.1
|
61 |
-
PARAMETER num_thread 4
|
62 |
-
EOF
|
63 |
|
64 |
-
|
65 |
-
|
66 |
|
67 |
-
|
68 |
-
|
69 |
-
|
70 |
|
71 |
-
##
|
72 |
-
- **PARANCS kategória**: 100% pontosság
|
73 |
-
- "Kapcsold fel a konyhai lámpát!" → `konyha_lampa_plafon_be.py`
|
74 |
-
- "Hány óra van?" → `pontosido.py`
|
75 |
-
- "Főzz kávét!" → `fozz_kavet.py`
|
76 |
|
77 |
-
- **
|
78 |
-
|
79 |
-
|
80 |
|
81 |
-
##
|
82 |
-
Ha a válasz `ext": ...` formátumban jön, add hozzá: `{"t` az elejére.
|
83 |
|
84 |
-
|
85 |
-
- **LoRA
|
86 |
-
- **
|
|
|
87 |
|
88 |
---
|
89 |
-
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
base_model: mistralai/Mistral-7B-Instruct-v0.2
|
4 |
+
tags:
|
5 |
+
- jetson-nano
|
6 |
+
- ollama
|
7 |
+
- smart-home
|
8 |
+
- hungarian
|
9 |
+
- fine-tuned
|
10 |
+
- ready-to-use
|
11 |
+
language:
|
12 |
+
- hu
|
13 |
+
pipeline_tag: text-generation
|
14 |
+
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
|
16 |
+
# Magyar AI Portás - Jetson Nano Ready
|
|
|
|
|
|
|
17 |
|
18 |
+
🇭🇺 **Fine-tuned Mistral 7B** magyar nyelvű smart home parancsok kategorizálásához.
|
19 |
+
📱 **Jetson Nano optimalizált** - egyetlen paranccsal telepíthető!
|
20 |
|
21 |
+
## ⚡ Gyors Telepítés Jetson Nano-n
|
22 |
|
23 |
```bash
|
24 |
+
# 1. Letöltés
|
25 |
+
git clone https://huggingface.co/ikerion/mistral-magyar-jetson-ready
|
26 |
+
cd mistral-magyar-jetson-ready
|
|
|
|
|
|
|
|
|
27 |
|
28 |
+
# 2. Ollama telepítés (ha nincs)
|
29 |
+
curl -fsSL https://ollama.ai/install.sh | sh
|
30 |
|
31 |
+
# 3. Modell létrehozás
|
32 |
+
ollama create magyar-portas -f Modelfile
|
33 |
|
34 |
+
# 4. Használat
|
35 |
+
ollama run magyar-portas "Kapcsold fel a lámpát!"
|
36 |
+
```
|
|
|
|
|
|
|
|
|
37 |
|
38 |
+
## 🎯 Működés
|
|
|
|
|
|
|
|
|
|
|
39 |
|
40 |
+
**Input:** "Kapcsold fel a lámpát!"
|
41 |
+
**Output:** `{"tipus": "PARANCS", "eszkoz": "lampa", "muvelet": "bekapcsol"}`
|
42 |
|
43 |
+
**Kategóriák:**
|
44 |
+
- **PARANCS**: Smart home vezérlési utasítások
|
45 |
+
- **ERIK**: Személyes beszélgetés
|
46 |
|
47 |
+
## 📊 Teljesítmény
|
|
|
|
|
|
|
|
|
48 |
|
49 |
+
- **Pontosság**: 90% (PARANCS: 100%, ERIK: 100%)
|
50 |
+
- **Memóriahasználat**: ~3-4 GB (Q4 kvantálás után)
|
51 |
+
- **Válaszidő**: ~1-2 másodperc
|
52 |
|
53 |
+
## 🔧 Technikai Részletek
|
|
|
54 |
|
55 |
+
- **Base**: mistralai/Mistral-7B-Instruct-v0.2
|
56 |
+
- **Fine-tuning**: LoRA módszer magyar adatokon
|
57 |
+
- **Formátum**: SafeTensors → Ollama auto-kvantálás
|
58 |
+
- **Kompatibilitás**: ARM64 (Jetson Nano/Xavier/Orin)
|
59 |
|
60 |
---
|
61 |
+
**🎊 Kész a használatra! Egy paranccsal működő magyar AI portás.** 🏠🤖
|